들어가며
2026년 첫 주(2025-12-30 ~ 2026-01-04)는 지식관리 시스템의 완성도를 한 단계 끌어올린 주였습니다. 특히 1월 4일 토요일, 8시간 이상을 _secondbrain 프로젝트에 집중하여 20개 inbox 노트를 3개의 영구노트와 1개의 MOC로 변환하는 대규모 작업을 성공적으로 완료했습니다.
이번 주간 회고에서는:
- 대규모 inbox 처리 과정
- Local-First AI라는 새로운 지식 클러스터 발견
- TDD 방법론을 적용한 지식관리 자동화
- AI 회고 및 다음 단계
이 네 가지를 중심으로 한 주를 돌아봅니다.
이번 주 숫자로 보기
| 지표 | 수치 | 의미 |
|---|---|---|
| 영구노트 생성 | 3개 | Local-First AI 주제 클러스터 |
| MOC 생성 | 1개 | 신규 지식 체계 정립 |
| 순간메모 수집 | 43개 | 이번 주 새로 추가 (오늘 33개) |
| Inbox 처리 | 1개 → 3노트+MOC | 대규모 변환 성공 |
| GitHub 커밋 | 22개 | _secondbrain + oliveeelab |
| GitHub 이슈 완료 | 4개 | #1, #3, #8, #9, #10 |
| Wikilink 네트워크 | 30+ 링크 | 평균 11개/노트 |
| 작업 시간 | 8+ hours | 단일 프로젝트 집중 (1/4) |
하지만 숫자보다 중요한 것은:
- Local-First AI라는 새 지식 영역 개척
- TDD 워크플로우 실전 검증 완료
- COLLECT/PROCESS 레이어 개념 정립 → 구현 → 검증 완주
주요 성과 1: 대규모 Inbox 처리
현황: 149개의 누적된 노트
이번 주 동안 총 43개의 새 노트가 inbox에 추가되었고, 특히 1월 4일 하루에만 33개가 쌓였습니다. 대부분 Telegram을 통한 자동 수집이며, 크게 세 가지 패턴으로 분류됩니다:
1. 테스트 & 실험 (12개)
- Short-Note 다수: 시스템 안정성 테스트
- 자동화 파이프라인 검증
- 처리 방향: ARCHIVE (정보 가치 없음)
2. 개인 성찰 (5개)
- 새해 회고, 습관 형성, 가족 이야기
- 일요일 밤의 조용한 성찰 시간
- 처리 방향: Daily Note 통합 또는 Personal MOC 생성
3. 기술 탐구 (11개) ⭐
- Local-First AI 주제: 컨텍스트 압축, MCP 서버, 10년 전망
- 이 중 “뉴로 컴프레서 아키텍처” 노트는 3개 영구노트 + 1개 MOC로 변환 완료
- 처리 방향: 영구노트 생성 (고품질 지식 산출물)
핵심 성과: 20→3+MOC 변환
단일 세션에서 20개의 inbox 노트를 처리하여:
- 3개의 고품질 영구노트 생성
- 1개의 통합 MOC 생성
- 30개 이상의 wikilink 네트워크 구축
이는 제텔카스텐 방법론의 핵심인 “읽기 → 이해 → 연결 → 창조” 과정을 완전히 실천한 결과입니다.
주요 성과 2: Local-First AI 지식 체계 구축
처음에는 단순히 “브라우저 LLM 최적화” 노트 하나였지만, 처리 과정에서 세 가지가 모두 **“Local-First AI”**라는 하나의 큰 주제로 수렴함을 발견했습니다. 이것이 제텔카스텐의 힘입니다.
생성된 영구노트 3개
1. Browser-Based LLM Prompt Optimization
핵심 개념: Ghost Injection (유령 주입)
사용자에게는 LLM이 모든 문서를 읽은 것처럼 보이지만, 실제로는 압축된 고밀도 컨텍스트만 전송하여 토큰 비용을 90% 이상 절감하는 기법입니다.
기술 스택:
- WASM: 로컬 압축 모델 실행
- WebGPU: 트랜스포머 임베딩 생성 (WASM 대비 40~75배 빠름)
- Browser Built-in AI: Gemini Nano 활용
성과:
2. Tiny Language Models for Local Search
핵심 개념: 소형 언어 모델(TLM)의 효율성
TinyBERT/MobileBERT 같은 1억 개 미만 파라미터 모델을 활용하여:
- 크기: BERT Base 대비 7.5배 작음
- 속도: 9.4배 빠름
- 성능: 96% 유지 (Knowledge Distillation)
- NPU 환경: 50ms 미만 레이턴시
사용 사례:
- Personal Knowledge Base 검색 (Obsidian, Notion)
- IDE 코드 인텔리전스 (VS Code)
- 엔터프라이즈 문서 Q&A (온프레미스)
3. Korean AI Market Competitive Landscape
핵심 발견: 한국 AI 시장의 공백
3사(Liner, Wrtn, Upstage) 분석 결과:
- Liner: 클라우드 종속성으로 프라이버시 진입 장벽
- Wrtn: 워크플로우 통합 부재, 파워 유저 니즈 미충족
- Upstage: B2C 제품 없음 (B2B만 집중)
시장 기회: “내 로컬 드라이브를 위한 Liner”
- 100% 프라이버시 (서버 업로드 불필요)
- 워크플로우 통합 (Obsidian, VS Code 플러그인)
- 100ms 즉각 응답 (Liner는 수 분 소요)
통합 MOC: Local-First AI
3개 노트를 연결하고 15개의 미래 참조 wikilink를 포함한 MOC를 생성하여:
- 프라이버시 + 성능 동시 충족
- 비용 구조 혁신 (일회성 구매 vs 월 구독)
- 워크플로우 통합 전략
이라는 전략적 인사이트를 도출했습니다.
주요 성과 3: TDD 워크플로우 완성
Phase 1-3 구현
Phase 1: Inbox 분석 및 분류
- 20개 inbox 노트 읽기 및 분석
- PROMOTE/KEEP/ARCHIVE 분류
- 주제 클러스터링 (Local-First AI 발견)
Phase 2: 영구노트 생성
- 3개 영구노트 작성
- 각 노트당 평균 11개 wikilink 생성
- 기존 지식과 연결
Phase 3: MOC 생성 및 통합
- Local-First AI MOC 작성
- 15개 미래 참조 wikilink 추가
- 전략적 인사이트 정립
GitHub Issues 기반 관리
완료된 이슈 (4개):
- #1: 3개 PROCESS 스킬 개발 ✅
- #3: oliveeelab submodule 참조 업데이트 ✅
- #8: 20개 inbox 노트 처리 (부모 이슈) ✅
- #9, #10: Phase 1-2 완료 ✅
진행 중인 이슈 (7개):
- #2, #4: 스킬 테스트 및 검증
- #5, #6, #7: Phase 1-3 장기 프로젝트
- #11: Phase 3 MOC 업데이트
AI 회고: 발견한 패턴
1. 단일 세션 집중력의 힘
8시간 이상을 _secondbrain 하나에만 몰입한 결과:
- 복잡한 TDD 워크플로우를 처음부터 끝까지 완주
- 컨텍스트 스위칭 없이 깊은 작업 가능
- 20개 파일 → 3개 노트 변환이라는 대규모 작업 성공
교훈: 프로젝트를 오가지 말고, 하나에 집중하라.
2. 아키텍처 설계 → 즉시 실전 검증
아침에 COLLECT/PROCESS 레이어 분리 원칙을 정립하고, 저녁에 바로 20개 inbox 처리로 검증했습니다. 이론과 실천의 간격이 12시간 이내였던 것이 효과적이었습니다.
교훈: 설계와 구현의 간격을 최소화하라.
3. 제텔카스텐의 창발성
처음에는 별개로 보였던 세 가지 주제가:
- 브라우저 LLM 최적화
- Tiny Language Models
- 한국 AI 시장 분석
모두 **“Local-First AI”**라는 하나의 큰 주제로 수렴했습니다. 노트를 작성하면서 연결고리를 발견하는 것, 이것이 제텔카스텐의 힘입니다.
교훈: 즉시 완벽한 분류를 시도하지 말고, 노트를 쓰면서 패턴을 발견하라.
개선할 점
1. Inbox 누적 문제 (149개)
22개의 ARCHIVE 대상을 빠르게 정리해야 합니다. 자동 아카이빙 규칙이 필요합니다:
- Short-Note → 자동 ARCHIVE
- URL 링크만 있는 노트 → 자동 분류
- Unprocessed-thread → 재처리 or 삭제
2. YouTube 수집 미활용
GitHub 활동은 완벽히 수집되지만, YouTube credentials가 미설정되어 있습니다. 다음 주에 설정 필요.
3. 개인 성찰 글 처리 전략
개인 회고성 글(5개)과 Tech 글(11개)의 처리 전략을 분리해야 합니다:
- Tech 글 → 영구노트 (지식 체계)
- 개인 글 → Daily Note 통합 (시간 흐름)
다음 주 할 일
🔥 긴급 (이번 주말)
- Inbox 22개 ARCHIVE 처리 (Short-Note, URL 링크 일괄 정리)
- GitHub 데이터 검증 (data/github/github-2026-01-04.md)
- Daily Review 작성 (오늘치)
📌 주요 (다음 주)
- Tech 노트 3개 영구노트 변환
- 컨텍스트 엔지니어링
- MCP 서버
- 10년 후 전망
- Context Engineering MOC 생성 (노트 수집 후)
- 개인 성찰 글 4개 처리 (Daily Note 통합 or Personal MOC)
🎯 검토 (시간 있을 때)
- CFD에이전트 프로젝트 상태 확인
- 오래된 inbox 정리 (12월 이전 노트)
- 고아 노트 연결 강화
제텔카스텐 성장 지표
| 지표 | 이번 주 | 비고 |
|---|---|---|
| 영구노트 | +3 | Local-First AI 클러스터 |
| MOC | +1 | 신규 지식 체계 |
| Wikilink | +30 | 견고한 네트워크 |
| Inbox 처리율 | 1/149 | 개선 필요 ⚠️ |
| GitHub 활동 | 22 commits | 매우 활발 ✅ |
맺으며
2026년 첫 주는 지식관리의 본질을 다시 확인한 한 주였습니다.
단순히 정보를 수집하는 것이 아니라:
- 이해하고 (20개 노트 읽기)
- 연결하며 (30개 wikilink)
- 창조한다 (3개 영구노트 + 1개 MOC)
이 과정을 통해 Local-First AI라는 새로운 지식 클러스터를 발견했고, 한국 AI 시장의 공백을 포착했으며, TDD 워크플로우를 실전으로 검증했습니다.
다음 주에는 Inbox Zero 도전 (149개 → 50개 이하)과 Context Engineering 지식 체계 완성에 집중하겠습니다.
이 글은 제텔카스텐 방법론을 실천한 주간 회고입니다. 주간 리뷰 스킬로 생성된 데이터를 바탕으로 작성되었습니다.