geek news에서 소개된 LLM 워크플로우 프레임워크인 deerflow를 사용해 보았다. 이번 글에서는 개발자의 시선에서 deerflow를 실제로 사용해보며 느낀 점, 실행 방법, 구체적인 사례를 정리해보려 한다.
deerflow란?
deerflow는 ByteDance에서 개발한 오픈소스 LLM 워크플로우 프레임워크다.
가장 큰 특징은 GPT, Claude, Gemini 같은 다양한 LLM들을 Node-based JSON 형식으로 연결해서 처리할 수 있다는 것이다. 마치 노드 그래프처럼 흐름을 구성하고, 실행 순서를 정의한 후, 일괄 처리까지 가능하다.
•
요약 → 퀴즈 생성 → GPT 채점 → DB 저장
•
사용자 질문 → 검색 → 답변 생성
•
크론 기반 자동 리포트 요약 및 전송
LangChain처럼 복잡한 체인도 구성할 수 있고, LangFlow처럼 시각화는 없지만 더 명시적으로 구조를 정의할 수 있다는 점에서 차별점이 있다.
deerflow 실행 방법
1.
설치 및 설정 과정
# GitHub에서 소스 클론:
git clone https://github.com/bytedancer/deerflow.git
cd deerflow
# 의존성 설치
# uv 설치 (mac OS)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv sync
# web ui를 위한 패키지 설치
cd deer-flow/web
pnpm install
# config
cp .env.example .env
cp conf.yaml.example conf.yaml
Shell
복사
2.
.env
•
search engine AI, API key 설정
•
travily api key는 travily 사이트에 접속하면 쉽게 얻을 수 있다.
# Application Settings
DEBUG=True
APP_ENV=development
# docker build args
NEXT_PUBLIC_API_URL="http://localhost:8000/api"
# Search Engine, Supported values: tavily (recommended), duckduckgo, brave_search, arxiv
SEARCH_API=tavily
TAVILY_API_KEY=tvly-xxx-xxxxxxxx
Shell
복사
3.
config.yml
•
config는 openai 호환 가능한 litellm format을 따른다.
OpenAI-Compatible Endpoints | liteLLM
•
openai 모델을 쓰는 경우 baseUrl은 따로 써주지 않아도 된다.
BASIC_MODEL:
model: "gpt-4o"
api_key: sk-proj-xxxxx
YAML
복사
4.
web ui 실행
# 프로젝트 루트로 이동
cd ..
# 실행
# Run both the backend and frontend servers in development mode
# On macOS/Linux
./bootstrap.sh -d
# On Windows
bootstrap.bat -d
YAML
복사
5.
브라우저에서 http://localhost:3000 접속
내가 생각한 장단점
장점
1. 다양한 LLM을 자유롭게 조합 가능
•
OpenAI, Claude, Gemini 등 다양한 모델을 동시에 연결해 사용할 수 있다.
•
예: Claude로 문서 분석 → GPT로 응답 생성 → Gemini로 다국어 번역
2. 멀티 에이전트 기반 프롬프트 체인 설계 가능
•
LangChain, LangFlow처럼 프롬프트 → 요약 → 후처리 같은 다단계 흐름 설계 가능
•
예: 고객 불만 요약 → 원인 추론 → 적절한 대응 메시지 생성 → Slack 전송
3. 오픈소스라 확장성이 뛰어남
•
Node.js 기반이기 때문에 src/nodes에 내가 필요한 노드를 직접 추가 가능
•
예: Supabase 저장 노드, Notion 업데이트 노드 등
단점
1. 새로고침하면 실행 결과 사라짐
•
웹에서 플로우 실행 후 새로고침하면 기록이 사라진다.
•
로컬 저장, 불러오기, 이력 관리 기능이 아직 미비함
2. 리포트 기능이 개괄적이고 아쉬움
•
report.md는 구조화된 응답 요약 위주로, 인사이트가 부족함
•
activities 탭에서 일부 세부 내용을 확인할 수는 있지만 분석에 한계 있음
3. 개인 사용자에겐 종량제 요금 부담 큼
•
OpenAI API를 직접 호출하는 구조이기 때문에 실험할 때마다 비용 발생
•
많은 테스트를 반복하는 개발자에게는 적지 않은 부담
4. 실무 사례가 정리되어 있지 않음
•
공식 문서나 예제가 간단한 수준에 그치고 있어, 실제 도입을 고려할 때 감이 안 잡힐 수 있음
개발자가 사용할 수 있는 구체적인 사례
사례 1. 코드 리뷰 요약 자동화
•
GitHub PR 코멘트 → GPT 요약 → Slack에 자동 알림
•
개발자가 놓치기 쉬운 피드백을 요약해서 팀에 브리핑 가능
사례 2. 문서 기반 퀴즈 생성 시스템
•
.pdf 문서 로드 → GPT로 요약 → 퀴즈 생성 → 정답 자동 평가
•
사내 학습 콘텐츠나 튜토리얼 기반 평가 자동화 가능
사례 3. 사용자 질문 기반 응답 생성 파이프라인
•
질문 입력 → 벡터 검색 → GPT로 응답 생성 → 슬랙/이메일 자동 전송
•
고객센터 챗봇이나 세일즈 자동화 워크플로우에 적합
결론
deerflow는 복잡한 LLM 워크플로우를 빠르게 설계하고 실험할 수 있는 도구로서 꽤 유용한 가능성을 보여준다.
특히 코드 없이도 여러 AI 호출 흐름을 설계할 수 있어 프롬프트 기반 설계자, 데이터 팀, 기획자와 협업하기 좋다.
다만 아직까지는 "실험 도구"에 가까우며, 실무에 바로 붙이기엔 데이터 저장, 보안, 로깅 기능이 부족하다.
향후 발전 방향이 기대되는 프레임워크이며, 자신만의 노드를 붙여서 커스터마이징하고 싶은 개발자에겐 충분히 탐험할 가치가 있다.