众力资讯网

Minion框架早已实现PTC:超越传统Tool Calling的Ag

引言2025年11月24日,Anthropic正式发布了Programmatic Tool Calling (PTC)特
引言

2025年11月24日,Anthropic正式发布了Programmatic Tool Calling (PTC)特性,允许Claude通过代码而非单次API调用来编排工具执行。这一创新被认为是Agent开发的重要突破,能够显著降低token消耗、减少延迟并提升准确性。

然而,作为minion框架的创建者,我想分享一个有趣的事实:minion从一开始就采用了这种架构理念。在PTC概念被正式提出之前,minion已经在生产环境中证明了这种方法的价值。

PTC解决了什么问题?

Anthropic在博文中指出了传统Tool Calling的两个核心问题:

1. Context污染问题

传统方式中,每次工具调用的结果都会返回到LLM的context中。例如分析一个10MB的日志文件时,整个文件内容会进入context window,即使LLM只需要错误频率的摘要。

2. 推理开销与手动综合

每次工具调用都需要一次完整的模型推理。LLM必须"眼球式"地解析数据、提取相关信息、推理片段如何组合,然后决定下一步——这个过程既缓慢又容易出错。

Minion的解决方案:天然的PTC架构

Minion框架从设计之初就采用了一种根本不同的架构:LLM专注于规划和决策,具体执行交给代码环境。

核心设计理念

# Minion的典型工作流1. LLM分析用户需求,制定执行计划2. LLM生成Python代码来编排工具调用3. 代码在隔离环境中执行,处理所有数据操作4. 只有最终结果返回给LLM

这正是PTC想要实现的效果,但minion将其作为基础架构而非可选特性。

实际案例对比

让我们看看Anthropic博文中的预算合规检查示例:

任务:找出Q3差旅超预算的团队成员

传统Tool Calling方式:

获取团队成员 → 20人

为每人获取Q3费用 → 20次工具调用,每次返回50-100条费用明细

获取各级别预算限额

所有数据进入context:2000+条费用记录(50KB+)

LLM手动汇总每人费用、查找预算、比较超支情况

使用PTC后:

Claude写一段Python脚本编排整个流程

脚本在Code Execution环境运行

LLM只看到最终结果:2-3个超支人员

在Minion中,这种模式是默认行为:

# Minion中的实现(伪代码)async def check_budget_compliance():    # LLM生成的计划代码    team = await get_team_members("engineering")    # 并行获取所有数据    levels = list(set(m["level"] for m in team))    budgets = {        level: await get_budget_by_level(level)        for level in levels    }    # 数据处理在本地完成    exceeded = []    for member in team:        expenses = await get_expenses(member["id"], "Q3")        total = sum(e["amount"] for e in expenses)        budget = budgets[member["level"]]        if total > budget["travel_limit"]:            exceeded.append({                "name": member["name"],                "spent": total,                "limit": budget["travel_limit"]            })    return exceeded  # 只返回关键结果

关键区别在于:

Minion:这是框架的核心设计,所有复杂任务都这样处理

PTC:需要显式启用,标记哪些工具允许programmatic调用

Minion的优势:更进一步

Minion不仅实现了PTC的核心理念,还提供了更多优势:

1. 完整的Python生态系统

Minion中的代码执行环境拥有完整的Python生态访问权:

# Minion可以直接使用任何Python库import pandas as pdimport numpy as npfrom sklearn.cluster import KMeans# 强大的数据处理df = pd.DataFrame(expense_data)analysis = df.groupby('category').agg({    'amount': ['sum', 'mean', 'std'],    'count': 'size'})# 复杂的数据科学任务model = KMeans(n_clusters=3)clusters = model.fit_predict(spending_patterns)

2. 状态管理和持久化

Minion天然支持复杂的状态管理:

class BudgetAnalyzer:    def __init__(self):        self.cache = {}        self.history = []    async def analyze_department(self, dept):        # 状态在整个分析过程中保持        if dept in self.cache:            return self.cache[dept]        result = await self._deep_analysis(dept)        self.cache[dept] = result        self.history.append(result)        return result

3. 错误处理和重试逻辑

在代码中显式处理各种边界情况:

async def robust_fetch(user_id, max_retries=3):    for attempt in range(max_retries):        try:            return await get_expenses(user_id, "Q3")        except RateLimitError:            await asyncio.sleep(2 ** attempt)        except DataNotFoundError:            return []  # 合理的默认值    raise Exception(f"Failed after {max_retries} attempts")

4. 并行和异步操作

充分利用Python的异步能力:

# 高效的并行处理async def analyze_all_departments():    departments = ["eng", "sales", "marketing", "ops"]    # 同时分析所有部门    results = await asyncio.gather(*[        analyze_department(dept)        for dept in departments    ])    # 整合分析结果    return consolidate_results(results)

性能数据对比

根据Anthropic的内部测试,PTC带来了显著改进:

Token节省:复杂研究任务从43,588降至27,297 tokens(减少37%)

延迟降低:消除了多次模型推理往返

准确率提升:

内部知识检索:25.6% → 28.5%

GIA基准测试:46.5% → 51.2%

在minion的生产使用中,我们观察到类似甚至更好的指标,因为:

更少的模型调用:LLM只在规划阶段和最终总结时参与

更高效的资源利用:本地数据处理不消耗API tokens

更可预测的性能:代码执行路径明确,减少了LLM的不确定性

架构哲学:谁应该做什么?

Minion的设计基于一个核心信念:

LLM擅长理解、规划和推理;Python擅长执行、处理和转换。

这种职责分离带来了清晰的架构:

用户请求    ↓[LLM:理解意图,制定计划]    ↓[生成Python代码]    ↓[代码执行环境:调用工具、处理数据、控制流程]    ↓[返回结构化结果]    ↓[LLM:解读结果,生成用户友好的响应]

这不仅仅是优化,而是一种架构级别的重新思考。

Tool Search Tool:Minion的动态工具发现

Anthropic的另一个新特性是Tool Search Tool,解决大型工具库的context消耗问题。Minion在这方面也有相应的机制:

分层工具暴露

# Minion的工具分层策略class MinionToolRegistry:    def __init__(self):        self.core_tools = []      # 始终加载        self.domain_tools = {}    # 按需加载        self.rare_tools = {}      # 搜索发现    def get_tools_for_task(self, task_description):        # 智能工具选择        tools = self.core_tools.copy()        # 基于任务描述添加相关工具        if "database" in task_description:            tools.extend(self.domain_tools["database"])        if "visualization" in task_description:            tools.extend(self.domain_tools["plotting"])        return tools

向量搜索工具发现

# 使用embedding的工具搜索from sentence_transformers import SentenceTransformerclass SemanticToolSearch:    def __init__(self, tool_descriptions):        self.model = SentenceTransformer('all-MiniLM-L6-v2')        self.tool_embeddings = self.model.encode(tool_descriptions)    def find_tools(self, query, top_k=5):        query_embedding = self.model.encode([query])        similarities = cosine_similarity(query_embedding, self.tool_embeddings)        return self.get_top_tools(similarities, top_k)

实际应用:Minion在生产环境

Minion框架已经在多个实际场景中证明了这种架构的价值:

案例1:大规模数据分析

金融科技公司使用minion分析数百万条交易记录,寻找异常模式:

async def detect_anomalies():    # LLM规划:需要获取数据、清洗、特征工程、异常检测    # 执行代码直接处理大数据集    transactions = await fetch_all_transactions(start_date, end_date)    # 1M+ records, 但不进入LLM context    df = pd.DataFrame(transactions)    df = clean_data(df)    features = engineer_features(df)    # 使用机器学习检测异常    anomalies = detect_with_isolation_forest(features)    # 只返回异常摘要给LLM    return {        "total_transactions": len(df),        "anomalies_found": len(anomalies),        "top_anomalies": anomalies.head(10).to_dict()    }

结果:

处理100万条记录

LLM仅消耗~5K tokens(传统方式需要500K+)

端到端延迟:30秒(vs 传统方式的5分钟+)

案例2:多源数据整合

SaaS公司使用minion整合来自多个API的客户数据:

async def comprehensive_customer_analysis(customer_id):    # 并行获取所有数据源    crm_data, support_tickets, usage_logs, billing_history = await asyncio.gather(        fetch_crm_data(customer_id),        fetch_support_tickets(customer_id),        fetch_usage_logs(customer_id),        fetch_billing_history(customer_id)    )    # 本地数据融合和分析    customer_profile = {        "health_score": calculate_health_score(...),        "churn_risk": predict_churn_risk(...),        "upsell_opportunities": identify_opportunities(...),        "support_sentiment": analyze_ticket_sentiment(support_tickets)    }    return customer_profile

案例3:自动化工作流

DevOps团队使用minion自动化复杂的部署流程:

async def deploy_with_validation():    # 多步骤工作流,每步都有条件逻辑    # 1. 运行测试    test_results = await run_test_suite()    if test_results.failed > 0:        return {"status": "blocked", "reason": "tests failed"}    # 2. 构建和推送镜像    image = await build_docker_image()    await push_to_registry(image)    # 3. 金丝雀部署    canary = await deploy_canary(image, percentage=10)    await asyncio.sleep(300)  # 监控5分钟    metrics = await get_canary_metrics(canary)    if metrics.error_rate > 0.01:        await rollback_canary(canary)        return {"status": "rolled_back", "metrics": metrics}    # 4. 完整部署    await deploy_full(image)    return {"status": "success", "image": image.tag}

超越PTC:Minion的未来方向

虽然PTC是一个重要的进步,但minion的架构设计让我们能够探索更多可能性:

1. 混合推理模式

在一个会话中智能切换:

# 简单任务:直接工具调用if task.complexity < THRESHOLD:    result = await simple_tool_call(task)# 复杂任务:生成编排代码else:    orchestration_code = await llm.generate_code(task)    result = await execute_code(orchestration_code)

2. 增量计算和缓存

智能重用中间结果:

# 记忆化的数据获取@lru_cache(maxsize=1000)async def cached_get_user_data(user_id):    return await fetch_user_data(user_id)# 增量更新而非全量重算async def update_analysis(new_data):    previous_state = load_checkpoint()    delta = compute_delta(previous_state, new_data)    updated_state = apply_delta(previous_state, delta)    return updated_state

3. 多模型协作

不同模型处理不同阶段:

# 规划用强模型plan = await claude_opus.create_plan(user_request)# 代码生成用专门模型code = await codegen_model.generate(plan)# 执行和监控result = await execute_with_monitoring(code)# 用户交互用快速模型response = await claude_haiku.format_response(result)

开源的力量:社区驱动的创新

Minion作为开源项目(300+ GitHub stars),其发展得益于社区的贡献和反馈。这种开放性带来了:

快速迭代:社区发现问题和用例,推动快速改进

多样化应用:用户在我们未曾想象的场景中使用minion

相比之下,PTC虽然强大,但:

需要显式配置(allowed_callers, defer_loading等)

依赖特定的API版本和beta功能

与Claude的生态系统紧密耦合

Minion的设计原则是provider-agnostic——你可以用任何LLM后端(Claude, GPT-4, 开源模型),架构优势依然存在。

技术细节:实现对比

让我们深入比较实现细节:

PTC的实现方式

# Anthropic的PTC需要特定配置{    "tools": [        {            "type": "code_execution_20250825",            "name": "code_execution"        },        {            "name": "get_team_members",            "allowed_callers": ["code_execution_20250825"],            ...        }    ]}# Claude生成工具调用{    "type": "server_tool_use",    "id": "srvtoolu_abc",    "name": "code_execution",    "input": {        "code": "team = get_team_members(&#x27;engineering&#x27;)\\n..."    }}

Minion的实现方式

# Minion的工具定义是标准Pythonclass MinionTools:    @tool    async def get_team_members(self, department: str):        """Get all members of a department"""        return await self.db.query(...)    @tool    async def get_expenses(self, user_id: str, quarter: str):        """Get expense records"""        return await self.expenses_api.fetch(...)# LLM生成的是完整的Python函数async def analyze_budget():    # 直接调用工具函数    team = await tools.get_team_members("engineering")    # 完整的Python语言能力    expenses_by_user = {        member.id: await tools.get_expenses(member.id, "Q3")        for member in team    }    # 任意复杂度的数据处理    analysis = perform_complex_analysis(expenses_by_user)    return analysis

关键区别:

PTC:工具调用通过特殊的API机制,有caller/callee关系

Minion:工具就是普通的Python async函数,LLM生成标准代码

为什么这个架构如此重要?

随着AI Agent向生产环境发展,我们面临的核心挑战是:

规模:处理百万级数据,不能全塞进context

可靠性:生产系统需要确定性的错误处理

成本:token消耗直接影响商业可行性

性能:用户体验需要亚秒级响应

传统的单次工具调用模式在这些维度上都遇到瓶颈。代码编排模式(无论是PTC还是minion)提供了突破:

传统模式:LLM <-> Tool <-> LLM <-> Tool <-> LLM          (慢)   (贵)   (脆弱)编排模式:LLM -> [Code: Tool+Tool+Tool+Processing] -> LLM          (快)   (省)   (可靠)

1. 经过验证的架构

PTC的发布证明了我们架构选择的正确性——这不是投机性的设计,而是行业领先者独立得出的结论。

2. 先发优势

在PTC成为官方特性之前,minion已经在生产环境积累了经验和最佳实践。

3. 更广泛的适用性

支持多种LLM后端(Claude, GPT-4, 开源模型)

灵活的部署选项(云端、本地、混合)

丰富的Python生态系统集成

4. 社区和生态

300+stars代表的不仅是认可,还有潜在的用户基础和贡献者社区。

结论:架构的必然收敛

Anthropic推出PTC不是偶然——这是agent架构演进的必然方向。当你需要构建能处理复杂任务、大规模数据、多步骤流程的生产级agent时,你会自然而然地得出这样的结论:

LLM应该专注于它擅长的(理解和规划),让代码处理它擅长的(执行和转换)。

Minion从一开始就拥抱了这个理念,并将继续推动这个方向:

✅ 今天:完整的PTC式架构,生产环境验证

🚀 明天:更智能的工具发现、更高效的状态管理

🌟 未来:混合推理、增量计算、多模型协作

如果你正在构建需要处理真实世界复杂性的AI agent,我邀请你:

试用minion:GitHub仓库

加入讨论:分享你的用例和反馈

参与社区:贡献代码、文档、想法

这不是关于谁先想到某个特性,而是关于共同推动AI agent架构向正确方向发展。PTC的发布对整个生态系统都是好消息——它验证了这条路径,并将吸引更多开发者探索programmatic orchestration的潜力。

让我们一起构建下一代AI agent。

相关资源视频演示

PTC Example - Expense Tracking: https://youtu.be/hDAIB0sF7-k

Tool Search Tool Example - Create GitHub PR: https://youtu.be/G7dDvza9PO8

文档

Advanced Tool Use Guide: https://github.com/femto/minion/blob/main/docs/advanced_tool_use.md

联系方式:

GitHub: minion框架

GitHub: minion-agent框架