n8n 자동화/n8n 워크플로우

AI가 실시간으로 최신 정보를 찾아준다고? n8n과 딥시크 R1으로 만드는 똑똑한 채팅봇

블루돌이 2025. 5. 30. 16:51
반응형

"오늘 서울 날씨 어때?"라고 물었더니 AI가 실시간으로 기상청 데이터를 검색해서 정확한 답변을 해준다면 어떨까?
그것도 내 컴퓨터에서 완전히 무료로 말이다.

오늘, 출근하면서 딥시크에서 로컬 사용이 가능한 R1 모델을 소리소문없이 내놓았다는 소식을 들었다. 성능이 GPT 3.5 수준과 비슷하다고 해서 이제 로컬에서도 쓸만한 모델들이 나오는구나라는 생각을 하게 되었다. 
"클라우드가 아닌 내 컴에서 AI가 알아서 검색하고 정리해서 답변해주면 얼마나 좋을까?" 그래서 직접 만들어봤다.
n8n과 딥시크 R1 모델을 활용한 실시간 정보 검색 채팅봇을!

왜 딥시크 R1과 n8n의 조합이 특별할까?

딥시크 R1, 이게 뭐가 다른가?

딥시크 R1은 최근 출시된 오픈소스 AI 모델 중에서도 특히 추론 능력이 뛰어난 모델이다. 단순히 암기한 정보를 뱉어내는 게 아니라, 실제로 '생각'하는 과정을 거쳐 답변을 만들어낸다.

무엇보다 Ollama를 통해 로컬에서 무료로 사용할 수 있다는 점이 매력적이다. API 비용 걱정 없이 마음껏 실험해볼 수 있으니까!

n8n, 코딩 없이도 복잡한 워크플로우를!

n8n은 노드 기반의 워크플로우 자동화 도구이다. 마치 레고 블록을 조립하듯이 각각의 기능 블록(노드)을 연결해서 복잡한 작업을 자동화할 수 있는 것이 장점이다.

특히 n8n ollama 연동이 지원되면서, 로컬 AI 모델을 활용한 워크플로우 구축이 훨씬 쉬워졌다.

준비물 체크리스트

시작하기 전에 필요한 것들을 준비해볼까?

소프트웨어:

  • n8n (Docker 또는 npm으로 설치)
  • Ollama (AI 모델 실행을 위한 플랫폼)
  • 딥시크 R1 모델 (ollama를 통해 다운로드)

하드웨어:

  • RAM 16GB 이상 권장
  • CPU: 최소 4코어 (8코어 이상 권장)
  • 저장공간: 20GB 이상 여유분

기타:

  • Brave Search API 키 (무료로 발급 가능)

단계별 구축 가이드: 따라하면 성공!

1단계: Ollama와 딥시크 R1 모델 설치

먼저 Ollama를 설치하고 n8n 딥시크 r1 모델을 다운로드해 보자.

# Ollama 설치 (macOS/Linux)
curl -fsSL https://ollama.ai/install.sh | sh

# 딥시크 R1 모델 다운로드
ollama pull deepseek-r1:8b

# 추가 모델들도 미리 다운로드
ollama pull qwen3:8b
ollama pull gemma3:4b

2단계: n8n 워크플로우 핵심 구조 이해하기

우리가 만들 채팅봇의 동작 방식은 다음과 같다:

  1. 사용자 질문 접수 → Chat Trigger 노드
  2. 질문 분석 → 딥시크 R1이 "검색이 필요한가?" 판단
  3. 분기 처리 → 단순 질문 vs 검색 필요 질문
  4. 실시간 검색 → Brave API로 최신 정보 수집
  5. 결과 정리 → 다른 AI 모델이 최종 답변 작성

3단계: 워크플로우 노드별 상세 설정

Chat Trigger 노드 설정

채팅 인터페이스의 시작점이다. 이 노드를 통해 사용자의 질문을 받아온다.

질문 분류 AI Agent 설정

사용 모델: deepseek-r1:8b

시스템 메시지:

사용자 요청을 분석하고 다음 중 하나로 분류하세요:
- SIMPLE: 일반 대화/질문 (도구 불필요)
- TOOL_NEEDED: 도구가 필요함 (웹검색, 계산 등)

도구가 필요하면 어떤 도구와 파라미터가 필요한지 명시하세요.
output은 한국어로만 답변하도록 하세요.

형식:
CLASSIFICATION: [SIMPLE/TOOL_NEEDED]

Switch 노드로 똑똑한 분기 처리

이 노드가 AI의 판단에 따라 두 가지 경로로 분기시킨다:

  • 경로 1: 단순 질문 → 바로 답변
  • 경로 2: 검색 필요 → 웹 검색 후 답변

검색 AI Agent 설정

사용 모델: qwen3:8b 연결된 도구: Brave Search API
(DeepSeek R1 모델은 tool사용을 지원하지 않는 모델이라, 부득이하게 tool을 사용할 수 있는 모델을 추가로 사용)

Brave API 설정:

4단계: 실제 테스트해보기

설정이 완료되면 다음과 같은 질문들로 테스트해보자:

단순 질문 예시:

  • "안녕하세요!"
  • "n8n이 뭔가요?"
  • "딥시크 R1 모델의 특징은?"

검색이 필요한 질문 예시:

  • "오늘 서울 날씨는 어때요?"
  • "삼성전자 주가는 현재 얼마인가요?"
  • "2025년 AI 트렌드는 뭔가요?"

실제 활용 사례: 이런 곳에서 써보자!

사례 1: 스마트 고객 지원 봇

온라인 쇼핑몰을 운영하는 김 사장님은 이 시스템을 활용해 24시간 고객 지원 서비스를 구축했습니다. 고객이 "배송 조회"를 요청하면 실시간으로 택배 API를 검색해서 정확한 배송 상태를 알려주죠.

사례 2: 회사 내부 정보 검색 봇

IT 스타트업의 박 팀장님은 회사 내부 문서와 최신 기술 정보를 동시에 검색할 수 있는 봇을 만들었습니다. "React 18의 새로운 기능"을 물어보면 최신 공식 문서를 찾아서 요약해주고, "우리 회사 휴가 정책"을 물어보면 내부 문서에서 정확한 정보를 찾아서 답변해줍니다.

사례 3: 개인 비서 AI

프리랜서 디자이너 최 씨는 일정 관리와 시장 동향 파악을 위해 활용하고 있습니다. "내일 서울 날씨와 디자인 업계 최신 뉴스"를 한 번에 물어보면, 날씨 정보와 업계 소식을 모두 정리해서 알려줍니다.

한 단계 더: 성능 최적화 팁

모델 조합의 묘미

오늘 테스트해본 결과, 각 단계별로 다른 모델을 사용하는 것이 가장 효과적이었다:

  • 질문 분류: deepseek-r1:8b (추론 능력 뛰어남)
  • 검색 및 정보 수집: qwen3:8b (빠른 처리 속도)
  • 최종 답변 정리: gemma3:4b (자연스러운 한국어 표현)

(앞에서 얘기한 것처럼 최신 정보 수집을 위한 tool을 deepseek에 붙힐 수가 없기 때문에 가능한 모델을 사용했고, 최종 답변 정리도 한글로 해야 하는데, deepseek은 최종 답변 정리 기능에 아직 문제가 있는지 output이 빈값으로 나오거나 이상한 문자들로 나오는 경우가 많았다. 여러 모델들로 테스트해 본 결과 gemma3가 가장 읽기 좋은 형태로 답변을 제공했다)

메모리 관리 꿀팁

여러 모델을 동시에 사용하면 메모리 사용량이 늘어난다. 모델 로딩 순서를 조절하거나, 사용량이 적은 시간대에는 일부 모델을 언로드하는 것도 좋은 방법이다. 아니면 맥 스튜디오 같은 꿈?의 로컬 컴이 있으면 걱정없이 사용할 수 있을 것이다.

마무리: 당신만의 AI 비서를 만들어보자!

n8n 딥시크 r1 조합으로 만든 이 채팅봇은 단순한 질문-답변을 넘어서, 실시간으로 세상의 정보를 검색하고 정리해주는 진짜 개인 비서 AI이다.

무엇보다 완전 무료로, 내 컴퓨터에서 안전하게 사용할 수 있다는 점이 가장 큰 장점이다. API 비용 걱정도, 개인정보 유출 걱정도 없다!

이제 당신의 차례! 오늘 당장 시작해서, 내일부터는 AI 비서의 도움을 받아보자.
조만간 로컬 PC에서 챗GPT나 클로드같은 LLM AI를 구축해서 사는 일상이 찾아올 것이라 믿는다!

지금 바로 시작해보자. 당신만의 똑똑한 AI 비서가 기다리고 있다! 🚀

반응형