TL;DR

  • 한국 AI 시장 Big 3: Liner (학술 검색), Wrtn (슈퍼앱), Upstage (온디바이스 인프라)
  • 공통 취약점: 파워 유저용 로컬 AI 솔루션 부재
  • 시장 기회: “내 로컬 드라이브를 위한 Liner” - 프라이버시 + 속도 + 워크플로우 통합
  • 타깃: 개발자, 연구원, PKM 유저 (월 $10-15 지불 의사)
  • 차별화: 100% 프라이버시 + 100ms 응답 + Obsidian/VS Code 통합

들어가며: 한국 AI 시장의 현재

2026년 1월, 한국 AI 시장은 거대 플랫폼 기업과 민첩한 스타트업이 혼재된 격전지입니다. 세 가지 주요 전략 축이 존재합니다:

  1. Liner (라이너): 클라우드 기반 학술 검색 - 신뢰성 중심
  2. Wrtn (뤼튼): B2C 슈퍼앱 - 접근성 중심
  3. Upstage (업스테이지): 온디바이스 AI 인프라 - 효율성 중심

하지만 파워 유저용 로컬 AI 솔루션은 여전히 공백입니다. 이 글에서는:

  • Big 3 경쟁 분석
  • 각사의 취약점
  • 로컬 우선 AI의 시장 기회
  • Go-to-Market 전략

을 다룹니다.


Big 3 분석

1. Liner AI (라이너) - 신뢰 기반의 연구 어시스턴트

Core Value Proposition

“출처의 명확성 + 환각 최소화”

Lin::erN":at2ure,Scienc?e"+

강점

  • 학술적 엄밀성 요구 사용자에게 강력한 소구력
  • “AI가 지어낸 것” vs “실제 논문 인용” 차별화
  • Scholar Mode, Deep Research 기능

2026년 취약점

1. 클라우드 종속성 (Privacy Barrier)

LLiinneerr??

결과: 개인/기업 문서 분석 시장 진입 장벽

2. 비용 및 속도

DMeiesp:maR:tecshe:archvs

Market Opportunity

Positioning: “내 로컬 드라이브를 위한 Liner”

LTian++regr11e00t00:%ms()

2. Wrtn (뤼튼) - B2C 슈퍼앱 및 AI 게이트웨이

Core Value Proposition

“모든 AI를 한 곳에서”

GPT-4+,Claude+PaLM+

강점

  • 대중적 사용자 기반 확보
  • 한국 특화 서비스 (카카오톡, 네이버 등)
  • 낮은 진입 장벽

2026년 취약점

1. 워크플로우 통합 부재

WVFrSrti:nCcot"dieon:"

결과: 파워 유저 니즈 미충족 (Destination 사이트 문제)

2. 비즈니스 모델 지속가능성

:or

Market Opportunity

Target: 뤼튼이 간과한 전문가 집단

---Ob:sidi:an(/,10VKS+Ct(ooDdkeeesntsi)nAaItion)

3. Upstage (업스테이지) - 엔터프라이즈 온디바이스 리더

Core Value Proposition

“효율적인 자체 LLM + NPU 통합”

Sol++arDLeG(pthUp)-Sc(alingNP(UD)US)

강점

  • 기술력 우위 (DUS, Document AI)
  • B2B API 사업 안정성
  • NPU 하드웨어 파트너십

경쟁 관계 및 위협

가장 유사한 기술 방향 (온디바이스 AI)

Upst:agHeIGB(H2C+)

전략적 제휴 가능성

인프라 파트너로 활용

SolavrsMiSnoilar

Competitive Positioning Matrix

기능/특성LinerWrtnUpstageLocal-First AI
주 배포 형태클라우드 SaaS클라우드/앱하이브리드 API/온프레미스로컬 플러그인
타겟 고객학생/연구원일반 대중기업 (B2B)개발자/지식 노동자
프라이버시데이터 업로드데이터 업로드기업 규정100% 로컬
컨텍스트 전략심층 리서치표준 윈도우Document AI의미론적 압축
비용 구조월 구독무료/광고/부분유료라이선스/토큰일회성 구매/저가 구독
속도수 분 (Deep Research)수 초수 초100ms (즉각)
오프라인⚠️ (온프레미스만)✅ 완전 지원

Market Gap: 로컬 인프라의 공백

Unmet Needs (충족되지 않은 요구사항)

1. 프라이버시 + LLM 성능 동시 충족

LWUGirpantspent:r:a:ge:OO,,,B2XXC

2. 워크플로우 통합 AI

LGianpe:r,ObWsritdni:an,VSCodeAI

3. 즉각적 응답 + 긴 컨텍스트

LWGirantpen:r:1D0e0empsRese+arc(h:)

4. 비용 효율적 개인용 AI

Gap:

Strategic Positioning for Local-First AI

Blue Ocean Strategy (블루오션 전략)

차별화 축 4가지

1. Privacy-First by Design

1G0D0P%R/

2. Workflow Integration, Not Destination

OLbisnie/dri/aWnr,tnVSCode,Notion

3. Semantic Compression + Graph Merge

Lin+++erWUrptsntage

4. Lifetime License or Low-Cost Subscription

or($50-(1$050/)month)

Target Customer Persona

Primary: Power Users (파워 유저)

Characteristics

:::::,,((PKM,))

Pain Points

LWUirpntsentr:a:ge:B2C,

Willingness to Pay

::$5$01-01-0105(Lifetime)

Secondary: Privacy-Conscious Professionals

Characteristics

:::,/,

Pain Points

UpsAtIage()

Willingness to Pay


Go-to-Market Strategy

Phase 1: Early Adopters (얼리 어답터)

Channel: Product Hunt, Hacker News

Message: “로컬 드라이브를 위한 Liner”

Free Trial: 30일 무료 체험

Target: 개발자, PKM 커뮤니티 (Obsidian, Roam Research)

P"O3rPb0orsdiiuvdcaitca$yn5H-0uFnitrstAIofror$1Y0o/urVault"

Phase 2: Community Growth

Channel: YouTube (PKM 튜토리얼), 블로그

Message: “내 지식의 프라이버시 지킴이”

Freemium: 기본 기능 무료, 고급 기능 유료

Y"WoOoubrTsdui-bdoeifa-n(MRo+eudtLdhoicta,lDAiIscord)Vault"

Phase 3: Enterprise Pivot (선택)

Channel: 직접 영업 (B2B)

Message: “온프레미스 AI 지식 비서”

Model: 엔터프라이즈 라이선스

BB22CB,Pivo,t

Competitive Threats and Mitigation

Threat 1: Upstage B2C 진출

위협도: HIGH

Mitigation:

  • 빠른 시장 진입 (First-Mover Advantage)
  • 워크플로우 통합 차별화 (Upstage는 API 중심)

Threat 2: Liner 로컬 모드 출시

위협도: MEDIUM

Mitigation:

  • 압축 기술 우위
  • 속도 우위 (100ms vs 수 분)

Threat 3: 오픈소스 대안 (LlamaIndex, LangChain)

위협도: MEDIUM

Mitigation:

  • UX 우위 (코딩 불필요 vs DIY)
  • 엔드투엔드 솔루션 (모델 + DB + UI)

Threat 4: 브라우저 내장 AI (Gemini Nano)

위협도: LOW (단기), MEDIUM (장기)

Mitigation:

  • 하이브리드 전략 (Browser API + 자체 모델)

Key Insights

1. 한국 AI 시장의 공백

LUipnsetra/gWer:tnBA:2IC

2. 프라이버시 = 경쟁 우위

L1i0n0e%r/W,rtn

3. 워크플로우 통합 = 차별화

Desvtsinati(oLnocal-F(iLrisnterA,I)Wrtn)

4. Upstage와의 관계

SolavrsMini

5. 비용 구조 혁신


Next Steps for Market Entry

즉시 (2-4주)

  1. MVP 개발: Obsidian 플러그인
  2. 베타 테스트: Product Hunt 런칭
  3. 커뮤니티 피드백: 기능 우선순위 조정

단기 (2-3개월)

  1. 전략적 파트너십: Upstage Solar Mini 통합 검토
  2. B2C vs B2B 결정: 초기 트랙션 기반 pivot 결정
  3. VS Code 익스텐션: 개발자 시장 확장

중기 (6개월)

  1. Community Growth: YouTube, 블로그 콘텐츠
  2. Enterprise Pilot: 초기 B2B 고객 확보
  3. NPU 최적화: LG 그램 등 NPU 탑재 노트북 지원

실제 구현 예시: Obsidian 플러그인

// obsidian-local-first-ai/main.ts

import { Plugin, Notice } from 'obsidian';
import { LocalLLM } from './models/local-llm';
import { SemanticCompression } from './compression';
import { VaultIndex } from './indexing';

export default class LocalFirstAIPlugin extends Plugin {
  private llm: LocalLLM;
  private compressor: SemanticCompression;
  private index: VaultIndex;

  async onload() {
    // 로컬 LLM 로드 (Phi-3 or Solar Mini)
    this.llm = await LocalLLM.load({
      model: 'phi-3-mini',
      device: 'npu'  // NPU 사용
    });

    // 의미론적 압축 모델 로드
    this.compressor = await SemanticCompression.load({
      model: 'tinybert',
      device: 'npu'
    });

    // Vault 인덱싱
    this.index = new VaultIndex(this.app.vault);
    await this.index.build();

    // 명령어: "Ask Vault"
    this.addCommand({
      id: 'ask-vault',
      name: 'Ask Vault (Local-First AI)',
      callback: async () => {
        const query = await this.promptUser();

        // 하이브리드 검색 (60ms)
        const relevantDocs = await this.index.search(query, {
          top_k: 20
        });

        // 의미론적 압축 (80ms)
        const compressed = await this.compressor.compress(relevantDocs, {
          target_tokens: 1000
        });

        // 로컬 LLM 추론 (100ms)
        const answer = await this.llm.generate(compressed, query);

        // Total: ~240ms ✨
        new Notice(answer);
      }
    });

    new Notice('Local-First AI loaded (100% privacy)');
  }
}

결론

한국 AI 시장은 파워 유저용 로컬 AI 솔루션이라는 공백이 존재합니다.

  • Liner: 프라이버시 진입 장벽
  • Wrtn: 워크플로우 통합 부재
  • Upstage: B2C 미진출

이 공백을 메우는 Local-First AI 전략:

  1. 100% 프라이버시 (서버 업로드 불필요)
  2. 워크플로우 통합 (Obsidian, VS Code 플러그인)
  3. 100ms 응답 (의미론적 압축 + NPU)
  4. 비용 혁신 (일회성 구매 or $5/월)

이것이 **“내 로컬 드라이브를 위한 Liner”**입니다.

2026년, NPU 보편화와 프라이버시 의식 증가로 로컬 우선 AI의 시대가 열리고 있습니다.


시리즈 이전 글:

  • Part 1: 브라우저에서 LLM 돌리기 - Ghost Injection으로 90% 비용 절감
  • Part 2: Tiny Language Models - 50ms 지연시간의 로컬 검색

이 글은 Zettelkasten 영구노트를 바탕으로 작성되었습니다. 한국 AI 시장 3사의 실제 서비스와 전략을 분석하여 작성했습니다.