TL;DR
- 한국 AI 시장 Big 3: Liner (학술 검색), Wrtn (슈퍼앱), Upstage (온디바이스 인프라)
- 공통 취약점: 파워 유저용 로컬 AI 솔루션 부재
- 시장 기회: “내 로컬 드라이브를 위한 Liner” - 프라이버시 + 속도 + 워크플로우 통합
- 타깃: 개발자, 연구원, PKM 유저 (월 $10-15 지불 의사)
- 차별화: 100% 프라이버시 + 100ms 응답 + Obsidian/VS Code 통합
들어가며: 한국 AI 시장의 현재
2026년 1월, 한국 AI 시장은 거대 플랫폼 기업과 민첩한 스타트업이 혼재된 격전지입니다. 세 가지 주요 전략 축이 존재합니다:
- Liner (라이너): 클라우드 기반 학술 검색 - 신뢰성 중심
- Wrtn (뤼튼): B2C 슈퍼앱 - 접근성 중심
- Upstage (업스테이지): 온디바이스 AI 인프라 - 효율성 중심
하지만 파워 유저용 로컬 AI 솔루션은 여전히 공백입니다. 이 글에서는:
- Big 3 경쟁 분석
- 각사의 취약점
- 로컬 우선 AI의 시장 기회
- Go-to-Market 전략
을 다룹니다.
Big 3 분석
1. Liner AI (라이너) - 신뢰 기반의 연구 어시스턴트
Core Value Proposition
“출처의 명확성 + 환각 최소화”
강점
- 학술적 엄밀성 요구 사용자에게 강력한 소구력
- “AI가 지어낸 것” vs “실제 논문 인용” 차별화
- Scholar Mode, Deep Research 기능
2026년 취약점
1. 클라우드 종속성 (Privacy Barrier)
결과: 개인/기업 문서 분석 시장 진입 장벽
2. 비용 및 속도
Market Opportunity
Positioning: “내 로컬 드라이브를 위한 Liner”
2. Wrtn (뤼튼) - B2C 슈퍼앱 및 AI 게이트웨이
Core Value Proposition
“모든 AI를 한 곳에서”
강점
- 대중적 사용자 기반 확보
- 한국 특화 서비스 (카카오톡, 네이버 등)
- 낮은 진입 장벽
2026년 취약점
1. 워크플로우 통합 부재
결과: 파워 유저 니즈 미충족 (Destination 사이트 문제)
2. 비즈니스 모델 지속가능성
Market Opportunity
Target: 뤼튼이 간과한 전문가 집단
3. Upstage (업스테이지) - 엔터프라이즈 온디바이스 리더
Core Value Proposition
“효율적인 자체 LLM + NPU 통합”
강점
- 기술력 우위 (DUS, Document AI)
- B2B API 사업 안정성
- NPU 하드웨어 파트너십
경쟁 관계 및 위협
가장 유사한 기술 방향 (온디바이스 AI)
전략적 제휴 가능성
인프라 파트너로 활용
Competitive Positioning Matrix
| 기능/특성 | Liner | Wrtn | Upstage | Local-First AI |
|---|---|---|---|---|
| 주 배포 형태 | 클라우드 SaaS | 클라우드/앱 | 하이브리드 API/온프레미스 | 로컬 플러그인 |
| 타겟 고객 | 학생/연구원 | 일반 대중 | 기업 (B2B) | 개발자/지식 노동자 |
| 프라이버시 | 데이터 업로드 | 데이터 업로드 | 기업 규정 | 100% 로컬 |
| 컨텍스트 전략 | 심층 리서치 | 표준 윈도우 | Document AI | 의미론적 압축 |
| 비용 구조 | 월 구독 | 무료/광고/부분유료 | 라이선스/토큰 | 일회성 구매/저가 구독 |
| 속도 | 수 분 (Deep Research) | 수 초 | 수 초 | 100ms (즉각) |
| 오프라인 | ❌ | ❌ | ⚠️ (온프레미스만) | ✅ 완전 지원 |
Market Gap: 로컬 인프라의 공백
Unmet Needs (충족되지 않은 요구사항)
1. 프라이버시 + LLM 성능 동시 충족
2. 워크플로우 통합 AI
3. 즉각적 응답 + 긴 컨텍스트
4. 비용 효율적 개인용 AI
Strategic Positioning for Local-First AI
Blue Ocean Strategy (블루오션 전략)
차별화 축 4가지
1. Privacy-First by Design
2. Workflow Integration, Not Destination
3. Semantic Compression + Graph Merge
4. Lifetime License or Low-Cost Subscription
Target Customer Persona
Primary: Power Users (파워 유저)
Characteristics
Pain Points
Willingness to Pay
Secondary: Privacy-Conscious Professionals
Characteristics
Pain Points
Willingness to Pay
Go-to-Market Strategy
Phase 1: Early Adopters (얼리 어답터)
Channel: Product Hunt, Hacker News
Message: “로컬 드라이브를 위한 Liner”
Free Trial: 30일 무료 체험
Target: 개발자, PKM 커뮤니티 (Obsidian, Roam Research)
Phase 2: Community Growth
Channel: YouTube (PKM 튜토리얼), 블로그
Message: “내 지식의 프라이버시 지킴이”
Freemium: 기본 기능 무료, 고급 기능 유료
Phase 3: Enterprise Pivot (선택)
Channel: 직접 영업 (B2B)
Message: “온프레미스 AI 지식 비서”
Model: 엔터프라이즈 라이선스
Competitive Threats and Mitigation
Threat 1: Upstage B2C 진출
위협도: HIGH
Mitigation:
- 빠른 시장 진입 (First-Mover Advantage)
- 워크플로우 통합 차별화 (Upstage는 API 중심)
Threat 2: Liner 로컬 모드 출시
위협도: MEDIUM
Mitigation:
- 압축 기술 우위
- 속도 우위 (100ms vs 수 분)
Threat 3: 오픈소스 대안 (LlamaIndex, LangChain)
위협도: MEDIUM
Mitigation:
- UX 우위 (코딩 불필요 vs DIY)
- 엔드투엔드 솔루션 (모델 + DB + UI)
Threat 4: 브라우저 내장 AI (Gemini Nano)
위협도: LOW (단기), MEDIUM (장기)
Mitigation:
- 하이브리드 전략 (Browser API + 자체 모델)
Key Insights
1. 한국 AI 시장의 공백
2. 프라이버시 = 경쟁 우위
3. 워크플로우 통합 = 차별화
4. Upstage와의 관계
5. 비용 구조 혁신
Next Steps for Market Entry
즉시 (2-4주)
- MVP 개발: Obsidian 플러그인
- 베타 테스트: Product Hunt 런칭
- 커뮤니티 피드백: 기능 우선순위 조정
단기 (2-3개월)
- 전략적 파트너십: Upstage Solar Mini 통합 검토
- B2C vs B2B 결정: 초기 트랙션 기반 pivot 결정
- VS Code 익스텐션: 개발자 시장 확장
중기 (6개월)
- Community Growth: YouTube, 블로그 콘텐츠
- Enterprise Pilot: 초기 B2B 고객 확보
- NPU 최적화: LG 그램 등 NPU 탑재 노트북 지원
실제 구현 예시: Obsidian 플러그인
// obsidian-local-first-ai/main.ts
import { Plugin, Notice } from 'obsidian';
import { LocalLLM } from './models/local-llm';
import { SemanticCompression } from './compression';
import { VaultIndex } from './indexing';
export default class LocalFirstAIPlugin extends Plugin {
private llm: LocalLLM;
private compressor: SemanticCompression;
private index: VaultIndex;
async onload() {
// 로컬 LLM 로드 (Phi-3 or Solar Mini)
this.llm = await LocalLLM.load({
model: 'phi-3-mini',
device: 'npu' // NPU 사용
});
// 의미론적 압축 모델 로드
this.compressor = await SemanticCompression.load({
model: 'tinybert',
device: 'npu'
});
// Vault 인덱싱
this.index = new VaultIndex(this.app.vault);
await this.index.build();
// 명령어: "Ask Vault"
this.addCommand({
id: 'ask-vault',
name: 'Ask Vault (Local-First AI)',
callback: async () => {
const query = await this.promptUser();
// 하이브리드 검색 (60ms)
const relevantDocs = await this.index.search(query, {
top_k: 20
});
// 의미론적 압축 (80ms)
const compressed = await this.compressor.compress(relevantDocs, {
target_tokens: 1000
});
// 로컬 LLM 추론 (100ms)
const answer = await this.llm.generate(compressed, query);
// Total: ~240ms ✨
new Notice(answer);
}
});
new Notice('Local-First AI loaded (100% privacy)');
}
}
결론
한국 AI 시장은 파워 유저용 로컬 AI 솔루션이라는 공백이 존재합니다.
- Liner: 프라이버시 진입 장벽
- Wrtn: 워크플로우 통합 부재
- Upstage: B2C 미진출
이 공백을 메우는 Local-First AI 전략:
- 100% 프라이버시 (서버 업로드 불필요)
- 워크플로우 통합 (Obsidian, VS Code 플러그인)
- 100ms 응답 (의미론적 압축 + NPU)
- 비용 혁신 (일회성 구매 or $5/월)
이것이 **“내 로컬 드라이브를 위한 Liner”**입니다.
2026년, NPU 보편화와 프라이버시 의식 증가로 로컬 우선 AI의 시대가 열리고 있습니다.
시리즈 이전 글:
- Part 1: 브라우저에서 LLM 돌리기 - Ghost Injection으로 90% 비용 절감
- Part 2: Tiny Language Models - 50ms 지연시간의 로컬 검색
이 글은 Zettelkasten 영구노트를 바탕으로 작성되었습니다. 한국 AI 시장 3사의 실제 서비스와 전략을 분석하여 작성했습니다.