Search
🦌

LLM 워크플로우 프레임워크 Deerflow 사용 후기

subtitle
Tags
AI
Created
2025/05/18
2 more properties
geek news에서 소개된 LLM 워크플로우 프레임워크인 deerflow를 사용해 보았다. 이번 글에서는 개발자의 시선에서 deerflow를 실제로 사용해보며 느낀 점, 실행 방법, 구체적인 사례를 정리해보려 한다.

deerflow란?

deerflowByteDance에서 개발한 오픈소스 LLM 워크플로우 프레임워크다.
가장 큰 특징은 GPT, Claude, Gemini 같은 다양한 LLM들을 Node-based JSON 형식으로 연결해서 처리할 수 있다는 것이다. 마치 노드 그래프처럼 흐름을 구성하고, 실행 순서를 정의한 후, 일괄 처리까지 가능하다.
대표적인 사용 예:
요약 → 퀴즈 생성 → GPT 채점 → DB 저장
사용자 질문 → 검색 → 답변 생성
크론 기반 자동 리포트 요약 및 전송
LangChain처럼 복잡한 체인도 구성할 수 있고, LangFlow처럼 시각화는 없지만 더 명시적으로 구조를 정의할 수 있다는 점에서 차별점이 있다.

deerflow 실행 방법

1.
설치 및 설정 과정
# GitHub에서 소스 클론: git clone https://github.com/bytedancer/deerflow.git cd deerflow # 의존성 설치 # uv 설치 (mac OS) curl -LsSf https://astral.sh/uv/install.sh | sh uv sync # web ui를 위한 패키지 설치 cd deer-flow/web pnpm install # config cp .env.example .env cp conf.yaml.example conf.yaml
Shell
복사
2.
.env
search engine AI, API key 설정
travily api key는 travily 사이트에 접속하면 쉽게 얻을 수 있다.
# Application Settings DEBUG=True APP_ENV=development # docker build args NEXT_PUBLIC_API_URL="http://localhost:8000/api" # Search Engine, Supported values: tavily (recommended), duckduckgo, brave_search, arxiv SEARCH_API=tavily TAVILY_API_KEY=tvly-xxx-xxxxxxxx
Shell
복사
3.
config.yml
openai 모델을 쓰는 경우 baseUrl은 따로 써주지 않아도 된다.
BASIC_MODEL: model: "gpt-4o" api_key: sk-proj-xxxxx
YAML
복사
4.
web ui 실행
# 프로젝트 루트로 이동 cd .. # 실행 # Run both the backend and frontend servers in development mode # On macOS/Linux ./bootstrap.sh -d # On Windows bootstrap.bat -d
YAML
복사
5.
브라우저에서 http://localhost:3000 접속

내가 생각한 장단점

장점

1. 다양한 LLM을 자유롭게 조합 가능
OpenAI, Claude, Gemini 등 다양한 모델을 동시에 연결해 사용할 수 있다.
예: Claude로 문서 분석 → GPT로 응답 생성 → Gemini로 다국어 번역
2. 멀티 에이전트 기반 프롬프트 체인 설계 가능
LangChain, LangFlow처럼 프롬프트 → 요약 → 후처리 같은 다단계 흐름 설계 가능
예: 고객 불만 요약 → 원인 추론 → 적절한 대응 메시지 생성 → Slack 전송
3. 오픈소스라 확장성이 뛰어남
Node.js 기반이기 때문에 src/nodes에 내가 필요한 노드를 직접 추가 가능
예: Supabase 저장 노드, Notion 업데이트 노드 등

단점

1. 새로고침하면 실행 결과 사라짐
웹에서 플로우 실행 후 새로고침하면 기록이 사라진다.
로컬 저장, 불러오기, 이력 관리 기능이 아직 미비함
2. 리포트 기능이 개괄적이고 아쉬움
report.md는 구조화된 응답 요약 위주로, 인사이트가 부족함
activities 탭에서 일부 세부 내용을 확인할 수는 있지만 분석에 한계 있음
3. 개인 사용자에겐 종량제 요금 부담 큼
OpenAI API를 직접 호출하는 구조이기 때문에 실험할 때마다 비용 발생
많은 테스트를 반복하는 개발자에게는 적지 않은 부담
4. 실무 사례가 정리되어 있지 않음
공식 문서나 예제가 간단한 수준에 그치고 있어, 실제 도입을 고려할 때 감이 안 잡힐 수 있음

개발자가 사용할 수 있는 구체적인 사례

사례 1. 코드 리뷰 요약 자동화

GitHub PR 코멘트 → GPT 요약 → Slack에 자동 알림
개발자가 놓치기 쉬운 피드백을 요약해서 팀에 브리핑 가능

사례 2. 문서 기반 퀴즈 생성 시스템

.pdf 문서 로드 → GPT로 요약 → 퀴즈 생성 → 정답 자동 평가
사내 학습 콘텐츠나 튜토리얼 기반 평가 자동화 가능

사례 3. 사용자 질문 기반 응답 생성 파이프라인

질문 입력 → 벡터 검색 → GPT로 응답 생성 → 슬랙/이메일 자동 전송
고객센터 챗봇이나 세일즈 자동화 워크플로우에 적합

결론

deerflow는 복잡한 LLM 워크플로우를 빠르게 설계하고 실험할 수 있는 도구로서 꽤 유용한 가능성을 보여준다.
특히 코드 없이도 여러 AI 호출 흐름을 설계할 수 있어 프롬프트 기반 설계자, 데이터 팀, 기획자와 협업하기 좋다.
다만 아직까지는 "실험 도구"에 가까우며, 실무에 바로 붙이기엔 데이터 저장, 보안, 로깅 기능이 부족하다.
향후 발전 방향이 기대되는 프레임워크이며, 자신만의 노드를 붙여서 커스터마이징하고 싶은 개발자에겐 충분히 탐험할 가치가 있다.