들어가며

2026년 첫 주(2025-12-30 ~ 2026-01-04)는 지식관리 시스템의 완성도를 한 단계 끌어올린 주였습니다. 특히 1월 4일 토요일, 8시간 이상을 _secondbrain 프로젝트에 집중하여 20개 inbox 노트를 3개의 영구노트와 1개의 MOC로 변환하는 대규모 작업을 성공적으로 완료했습니다.

이번 주간 회고에서는:

  • 대규모 inbox 처리 과정
  • Local-First AI라는 새로운 지식 클러스터 발견
  • TDD 방법론을 적용한 지식관리 자동화
  • AI 회고 및 다음 단계

이 네 가지를 중심으로 한 주를 돌아봅니다.


이번 주 숫자로 보기

지표수치의미
영구노트 생성3개Local-First AI 주제 클러스터
MOC 생성1개신규 지식 체계 정립
순간메모 수집43개이번 주 새로 추가 (오늘 33개)
Inbox 처리1개 → 3노트+MOC대규모 변환 성공
GitHub 커밋22개_secondbrain + oliveeelab
GitHub 이슈 완료4개#1, #3, #8, #9, #10
Wikilink 네트워크30+ 링크평균 11개/노트
작업 시간8+ hours단일 프로젝트 집중 (1/4)

하지만 숫자보다 중요한 것은:

  • Local-First AI라는 새 지식 영역 개척
  • TDD 워크플로우 실전 검증 완료
  • COLLECT/PROCESS 레이어 개념 정립 → 구현 → 검증 완주

주요 성과 1: 대규모 Inbox 처리

현황: 149개의 누적된 노트

이번 주 동안 총 43개의 새 노트가 inbox에 추가되었고, 특히 1월 4일 하루에만 33개가 쌓였습니다. 대부분 Telegram을 통한 자동 수집이며, 크게 세 가지 패턴으로 분류됩니다:

1. 테스트 & 실험 (12개)

  • Short-Note 다수: 시스템 안정성 테스트
  • 자동화 파이프라인 검증
  • 처리 방향: ARCHIVE (정보 가치 없음)

2. 개인 성찰 (5개)

  • 새해 회고, 습관 형성, 가족 이야기
  • 일요일 밤의 조용한 성찰 시간
  • 처리 방향: Daily Note 통합 또는 Personal MOC 생성

3. 기술 탐구 (11개) ⭐

  • Local-First AI 주제: 컨텍스트 압축, MCP 서버, 10년 전망
  • 이 중 “뉴로 컴프레서 아키텍처” 노트는 3개 영구노트 + 1개 MOC로 변환 완료
  • 처리 방향: 영구노트 생성 (고품질 지식 산출물)

핵심 성과: 20→3+MOC 변환

단일 세션에서 20개의 inbox 노트를 처리하여:

  • 3개의 고품질 영구노트 생성
  • 1개의 통합 MOC 생성
  • 30개 이상의 wikilink 네트워크 구축

이는 제텔카스텐 방법론의 핵심인 “읽기 → 이해 → 연결 → 창조” 과정을 완전히 실천한 결과입니다.


주요 성과 2: Local-First AI 지식 체계 구축

처음에는 단순히 “브라우저 LLM 최적화” 노트 하나였지만, 처리 과정에서 세 가지가 모두 **“Local-First AI”**라는 하나의 큰 주제로 수렴함을 발견했습니다. 이것이 제텔카스텐의 힘입니다.

생성된 영구노트 3개

1. Browser-Based LLM Prompt Optimization

핵심 개념: Ghost Injection (유령 주입)

사용자에게는 LLM이 모든 문서를 읽은 것처럼 보이지만, 실제로는 압축된 고밀도 컨텍스트만 전송하여 토큰 비용을 90% 이상 절감하는 기법입니다.

기술 스택:

  • WASM: 로컬 압축 모델 실행
  • WebGPU: 트랜스포머 임베딩 생성 (WASM 대비 40~75배 빠름)
  • Browser Built-in AI: Gemini Nano 활용

성과:

:1:0:0%101%00(m9s100%(09%5%))

핵심 개념: 소형 언어 모델(TLM)의 효율성

TinyBERT/MobileBERT 같은 1억 개 미만 파라미터 모델을 활용하여:

  • 크기: BERT Base 대비 7.5배 작음
  • 속도: 9.4배 빠름
  • 성능: 96% 유지 (Knowledge Distillation)
  • NPU 환경: 50ms 미만 레이턴시

사용 사례:

  • Personal Knowledge Base 검색 (Obsidian, Notion)
  • IDE 코드 인텔리전스 (VS Code)
  • 엔터프라이즈 문서 Q&A (온프레미스)

3. Korean AI Market Competitive Landscape

핵심 발견: 한국 AI 시장의 공백

3사(Liner, Wrtn, Upstage) 분석 결과:

  • Liner: 클라우드 종속성으로 프라이버시 진입 장벽
  • Wrtn: 워크플로우 통합 부재, 파워 유저 니즈 미충족
  • Upstage: B2C 제품 없음 (B2B만 집중)

시장 기회: “내 로컬 드라이브를 위한 Liner”

  • 100% 프라이버시 (서버 업로드 불필요)
  • 워크플로우 통합 (Obsidian, VS Code 플러그인)
  • 100ms 즉각 응답 (Liner는 수 분 소요)

통합 MOC: Local-First AI

3개 노트를 연결하고 15개의 미래 참조 wikilink를 포함한 MOC를 생성하여:

  • 프라이버시 + 성능 동시 충족
  • 비용 구조 혁신 (일회성 구매 vs 월 구독)
  • 워크플로우 통합 전략

이라는 전략적 인사이트를 도출했습니다.


주요 성과 3: TDD 워크플로우 완성

Phase 1-3 구현

Phase 1: Inbox 분석 및 분류

  • 20개 inbox 노트 읽기 및 분석
  • PROMOTE/KEEP/ARCHIVE 분류
  • 주제 클러스터링 (Local-First AI 발견)

Phase 2: 영구노트 생성

  • 3개 영구노트 작성
  • 각 노트당 평균 11개 wikilink 생성
  • 기존 지식과 연결

Phase 3: MOC 생성 및 통합

  • Local-First AI MOC 작성
  • 15개 미래 참조 wikilink 추가
  • 전략적 인사이트 정립

GitHub Issues 기반 관리

완료된 이슈 (4개):

  • #1: 3개 PROCESS 스킬 개발 ✅
  • #3: oliveeelab submodule 참조 업데이트 ✅
  • #8: 20개 inbox 노트 처리 (부모 이슈) ✅
  • #9, #10: Phase 1-2 완료 ✅

진행 중인 이슈 (7개):

  • #2, #4: 스킬 테스트 및 검증
  • #5, #6, #7: Phase 1-3 장기 프로젝트
  • #11: Phase 3 MOC 업데이트

AI 회고: 발견한 패턴

1. 단일 세션 집중력의 힘

8시간 이상을 _secondbrain 하나에만 몰입한 결과:

  • 복잡한 TDD 워크플로우를 처음부터 끝까지 완주
  • 컨텍스트 스위칭 없이 깊은 작업 가능
  • 20개 파일 → 3개 노트 변환이라는 대규모 작업 성공

교훈: 프로젝트를 오가지 말고, 하나에 집중하라.

2. 아키텍처 설계 → 즉시 실전 검증

아침에 COLLECT/PROCESS 레이어 분리 원칙을 정립하고, 저녁에 바로 20개 inbox 처리로 검증했습니다. 이론과 실천의 간격이 12시간 이내였던 것이 효과적이었습니다.

교훈: 설계와 구현의 간격을 최소화하라.

3. 제텔카스텐의 창발성

처음에는 별개로 보였던 세 가지 주제가:

  • 브라우저 LLM 최적화
  • Tiny Language Models
  • 한국 AI 시장 분석

모두 **“Local-First AI”**라는 하나의 큰 주제로 수렴했습니다. 노트를 작성하면서 연결고리를 발견하는 것, 이것이 제텔카스텐의 힘입니다.

교훈: 즉시 완벽한 분류를 시도하지 말고, 노트를 쓰면서 패턴을 발견하라.


개선할 점

1. Inbox 누적 문제 (149개)

22개의 ARCHIVE 대상을 빠르게 정리해야 합니다. 자동 아카이빙 규칙이 필요합니다:

  • Short-Note → 자동 ARCHIVE
  • URL 링크만 있는 노트 → 자동 분류
  • Unprocessed-thread → 재처리 or 삭제

2. YouTube 수집 미활용

GitHub 활동은 완벽히 수집되지만, YouTube credentials가 미설정되어 있습니다. 다음 주에 설정 필요.

3. 개인 성찰 글 처리 전략

개인 회고성 글(5개)과 Tech 글(11개)의 처리 전략을 분리해야 합니다:

  • Tech 글 → 영구노트 (지식 체계)
  • 개인 글 → Daily Note 통합 (시간 흐름)

다음 주 할 일

🔥 긴급 (이번 주말)

  1. Inbox 22개 ARCHIVE 처리 (Short-Note, URL 링크 일괄 정리)
  2. GitHub 데이터 검증 (data/github/github-2026-01-04.md)
  3. Daily Review 작성 (오늘치)

📌 주요 (다음 주)

  1. Tech 노트 3개 영구노트 변환
    • 컨텍스트 엔지니어링
    • MCP 서버
    • 10년 후 전망
  2. Context Engineering MOC 생성 (노트 수집 후)
  3. 개인 성찰 글 4개 처리 (Daily Note 통합 or Personal MOC)

🎯 검토 (시간 있을 때)

  1. CFD에이전트 프로젝트 상태 확인
  2. 오래된 inbox 정리 (12월 이전 노트)
  3. 고아 노트 연결 강화

제텔카스텐 성장 지표

지표이번 주비고
영구노트+3Local-First AI 클러스터
MOC+1신규 지식 체계
Wikilink+30견고한 네트워크
Inbox 처리율1/149개선 필요 ⚠️
GitHub 활동22 commits매우 활발 ✅

맺으며

2026년 첫 주는 지식관리의 본질을 다시 확인한 한 주였습니다.

단순히 정보를 수집하는 것이 아니라:

  • 이해하고 (20개 노트 읽기)
  • 연결하며 (30개 wikilink)
  • 창조한다 (3개 영구노트 + 1개 MOC)

이 과정을 통해 Local-First AI라는 새로운 지식 클러스터를 발견했고, 한국 AI 시장의 공백을 포착했으며, TDD 워크플로우를 실전으로 검증했습니다.

다음 주에는 Inbox Zero 도전 (149개 → 50개 이하)과 Context Engineering 지식 체계 완성에 집중하겠습니다.


이 글은 제텔카스텐 방법론을 실천한 주간 회고입니다. 주간 리뷰 스킬로 생성된 데이터를 바탕으로 작성되었습니다.