Blog Home

Agentic AI의 권한 관리 Paradigm

부제
OpenClaw를 시작하고 싶은 사람들에게…
작성일
2026/03/26

세종 짧은 코멘트

docker의 최초의 철학과도 맞닿아 있는데, 기본적으로 compute의 runtime은 stateless해야함
functional thinking으로 agentic ai의 행동을 설계한다고 생각하면 기능성과 보안을 동시에 잡을 수 있음
→ 이는 곧 iterative loop를 도는 하나의 작은 모델과 server로 떠있는 큰 모델 + API의 활용으로 연결
OpenClaw git clone 받아서 맨 처음 Matchlock의 paradigm을 적용해서 스스로를 고쳐보라고 하는 것에서 시작하면… 좋습니다
디버깅을 위해서 logging을 report.md의 형태로 지속적으로 써서 slack or telegram으로 보내거나, local directory에 explicit하게 남기도록 하면 더욱 좋습니다 (다행히 아직 모델이 explicit token을 속이기 위해서 생성은 잘 못 하는 것 같습니다)

ChatGPT Generated 해석

1. 한 줄 요약

AI agent를 “폐쇄된 일회용 microVM” 안에서 실행해서, 시스템/데이터/비밀을 보호하는 sandbox 인프라

2. 문제 정의 (Why needed)

최근 AI agent (Claude Code, AutoGPT, tool-using agent 등)는
다음과 같은 위험한 행동 가능성을 가진다:
임의 코드 실행 (shell, python, etc.)
외부 네트워크 요청 (API 호출, exfiltration)
로컬 파일 접근 (SSH key, .env, secrets)
잘못된 tool 사용 (prompt injection → 데이터 유출)
즉,
“agent = 거의 root 권한 가진 자동화 프로그램”

3. 핵심 아이디어 (Core Insight)

기존 접근의 한계

Docker / container
격리는 되지만 공격 surface 큼
permission prompt
UX 나쁨 + 우회 가능
policy 기반 필터링
완전하지 않음

Matchlock의 접근

"Agent를 아예 다른 컴퓨터에서 실행시켜라 (but instant + disposable)"

4. 시스템 구조

(1) Ephemeral MicroVM

agent 실행 시:
즉시 microVM 생성
작업 끝나면 완전히 삭제
실제 구현:
Linux → Firecracker
macOS → Virtualization.framework (Hacker News)
효과:
host OS와 완전 분리
persistent 공격 불가능

(2) Network Interception Layer

outbound request를 중간에서 통제
domain allowlist
API key 보호
malicious exfiltration 차단 (Hacker News)
핵심:
“agent는 네트워크를 직접 못 믿는다”

(3) Secret Injection (Controlled)

secret을 그냥 env에 넣는 게 아니라:
proxy를 통해 조건부 전달
예:
특정 domain에서만 API key 사용 가능
즉:
secret = “권한 + context dependent capability”

(4) Disposable Workspace

매 실행마다:
깨끗한 파일 시스템
독립된 실행 환경
결과:
persistence 공격 / lateral movement 불가능 (GitFind)

5. 개념적으로 보면

Matchlock은 단순 sandbox가 아니라:
“AI agent용 zero-trust execution environment”

기존 패러다임 vs Matchlock

방식
특징
기존
host 안에서 agent 실행
Matchlock
agent = 외부 ephemeral VM
기존
permission 중심
Matchlock
isolation 중심

6. 핵심 철학

Principle 1 — Isolation > Permission

"허용할지 고민하지 말고, 그냥 격리시켜라"

Principle 2 — Ephemeral Everything

상태를 남기지 않는다

Principle 3 — Network is the attack surface

모든 위험은 결국 outbound로 나간다

7. 직관적 비유

Matchlock =
“AI에게 일회용 실험실을 주고, 끝나면 폭파하는 시스템”
agent가 뭘 하든 상관 없음
대신 절대 바깥으로 영향 못 미침

8. 왜 중요한가 (Impact)

Agent 시대의 필수 인프라

앞으로:
coding agent
autonomous research agent
tool-using LLM
이 전부는:
"trusted 하지 않은 코드 실행기"

Matchlock이 해결하는 것

prompt injection → 데이터 유출
agent hallucination → destructive command
tool misuse → credential leak

9. 한 줄 정리 (다시)

Matchlock = AI agent를 안전하게 쓰기 위한 “microVM 기반 zero-trust sandbox OS layer”

10. (너 관점에서 중요한 포인트)

너가 지금 생각하는:
OpenClaw-like agent infra
local model + API hybrid
sandbox 고민
이랑 연결하면:
Matchlock은 사실상
“Agent Runtime Layer (secure execution)”