更新时间:2026-04-16 GMT+08:00
在智能体中集成工具
创建工具后,您需要将工具集成到智能体代码中,以便智能体可以调用隔离环境来完成代码运行等复杂任务。
前提条件
- 已创建代码解释器工具,具体请参见创建沙箱工具。
- 已安装Python,且版本不低于3.10。
在智能体中集成工具
- 登录AgentArts智能体开发平台。
- 在左侧导航栏选择“开发中心 > 组件库 ”,单击“工具”页签,进入工具界面。
- 在工具列表单击操作列的“调用代码”,通过SDK调用工具实现执行代码的能力,并通过tools装饰器封装成工具,SDK提供code_session函数,可快速启动代码解释器的会话,并支持自动停止会话。
支持的操作类型:
- execute_code:执行代码。
- execute_command:执行命令。
- read_files:读取文件。
- write_files:写入文件。
参数说明:
- code:在代码解释器会话中执行的代码。这是指定编程语言的源代码,将由代码解释器执行。
- command: 要使用该工具执行的命令。长度限制:最小长度为 0,最大长度为 65536。
- language: 要执行的代码所使用的编程语言,告诉代码解释器使用哪种语言运行时来执行代码。支持语言:Python。
- write_contents:当请求操作为write_files时,待写入的内容,包含待写入数据内容和文件路径。列表限制:最小元素数量为0,最大元素数量为1000。
- paths:当请求操作为read_files时, 所需读取的文件路径,需保证每个路径唯一。列表限制:最小元素数量为0,最大元素数量为1000。
from agentarts-sdk.tools import code_session @tools def custom_tool_name(code: str, description: str = ""): with code_session("your_region", "your_code_interpreter_name") as code_client: response = code_client.invoke( operate_type="your_operate_type", arguments={your_arguments} ) return json.dumps(response["result"]) - 将3中的执行代码能力封装成工具,即可集成到智能体中,此处以LangGraph框架开发智能体为例。
llm = ChatOpenAI( model="DeepSeek-V3", api_key=os.environ.get("MODEL_API_KEY", ""), base_url=os.environ.get("BASE_URL", ""), max_tokens=1000, temperature=0.7, ) # 创建工具列表 tools = [execute_python_tool] # 工具绑定Agent llm.bind_tools(tools)
后续操作
将开发好的Agent打包成镜像部署到智能体运行时,详细操作请参见部署智能体运行时。
相关文档
创建工具详情请参考创建沙箱工具。