Skip to main content
이 가이드는 계획 수립, 파일 시스템 도구, 하위 에이전트 기능을 갖춘 첫 번째 Deep Agent를 생성하는 과정을 안내합니다. 리서치를 수행하고 보고서를 작성할 수 있는 연구 에이전트를 구축하게 됩니다.

사전 요구 사항

시작하기 전에, 모델 제공자(예: Anthropic, OpenAI)로부터 API 키를 보유하고 있는지 확인하세요.

1단계: 의존성 설치

pip install deepagents tavily-python

2단계: API 키 설정

export ANTHROPIC_API_KEY="your-api-key"
export TAVILY_API_KEY="your-tavily-api-key"

3단계: 검색 도구 생성

import os
from typing import Literal
from tavily import TavilyClient
from deepagents import create_deep_agent

tavily_client = TavilyClient(api_key=os.environ["TAVILY_API_KEY"])

def internet_search(
    query: str,
    max_results: int = 5,
    topic: Literal["general", "news", "finance"] = "general",
    include_raw_content: bool = False,
):
    """Run a web search"""
    return tavily_client.search(
        query,
        max_results=max_results,
        include_raw_content=include_raw_content,
        topic=topic,
    )

4단계: Deep Agent 생성

# 에이전트를 전문 연구원으로 안내하는 시스템 프롬프트
research_instructions = """당신은 전문 연구원입니다. 당신의 임무는 철저한 리서치를 수행한 후 세련된 보고서를 작성하는 것입니다.

정보 수집의 주요 수단으로 인터넷 검색 도구에 접근할 수 있습니다.

## `internet_search`

주어진 쿼리에 대해 인터넷 검색을 실행하는 데 사용합니다. 반환할 최대 결과 수, 주제, 원시 콘텐츠 포함 여부를 지정할 수 있습니다.
"""

agent = create_deep_agent(
    tools=[internet_search],
    system_prompt=research_instructions
)

5단계: 에이전트 실행

result = agent.invoke({"messages": [{"role": "user", "content": "What is langgraph?"}]})

# 에이전트의 응답 출력
print(result["messages"][-1].content)

무슨 일이 일어났나요?

Deep Agent는 자동으로 다음 작업을 수행했습니다:
  1. 접근 방식 계획: 내장된 write_todos 도구를 사용하여 리서치 작업을 세분화했습니다
  2. 리서치 수행: internet_search 도구를 호출하여 정보를 수집했습니다
  3. 컨텍스트 관리: 파일 시스템 도구(write_file, read_file)를 사용하여 대용량 검색 결과를 오프로드했습니다
  4. 하위 에이전트 생성(필요한 경우): 복잡한 하위 작업을 특화된 하위 에이전트에 위임했습니다
  5. 보고서 종합: 조사 결과를 일관성 있는 응답으로 정리했습니다

다음 단계

첫 번째 Deep Agent를 구축했으니 이제:
  • 에이전트 커스터마이징: 사용자 정의 시스템 프롬프트, 도구, 하위 에이전트를 포함한 커스터마이징 옵션에 대해 알아보세요.
  • 미들웨어 이해: Deep Agent를 구동하는 미들웨어 아키텍처를 자세히 살펴보세요.
  • 장기 메모리 추가: 대화 간 영구 메모리를 활성화하세요.
  • 프로덕션 배포: LangGraph 애플리케이션을 위한 배포 옵션에 대해 알아보세요.

Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.