1. Agentic Coding은 정말 함정인가?
최근 Lars Faye의 글 「Agentic Coding is a Trap」을 읽었다. 글의 핵심 주장은 단순하다. 오늘날 유행하는 agentic coding, 즉 사람이 요구사항과 계획을 만들고 여러 AI 코딩 에이전트가 구현을 맡는 방식은 강력하지만 위험하다는 것이다. 왜냐하면 이 방식은 인간 개발자와 실제 코드 사이의 거리를 점점 벌리고, 그 결과 코드를 이해하고 검토하고 디버깅하는 능력 자체를 약화시킬 수 있기 때문이다 [1,2].
이 글에서 가장 인상 깊었던 표현은 “인지부채(cognitive debt)”였다. 기술부채가 미래의 개발 비용을 증가시키는 코드상의 빚이라면, 인지부채는 미래의 사고 능력을 약화시키는 정신상의 빚이다. 지금 당장은 AI가 빠르게 코드를 생성해주기 때문에 생산성이 올라간 것처럼 보인다. 그러나 내가 그 코드를 충분히 이해하지 못하고, 문제를 직접 쪼개보지 않고, 실패의 원인을 내 손으로 추적하지 않는다면, 언젠가 나는 AI가 만든 결과물을 감독할 능력마저 잃어버릴 수 있다.
이 지점에서 흥미로운 역설이 생긴다. AI를 잘 쓰려면 좋은 감독자가 필요하다. 그런데 AI를 과도하게 쓰면 좋은 감독자가 되기 위한 능력이 약화될 수 있다. Lars Faye가 인용한 Anthropic 연구에서도 비슷한 “supervision paradox”가 언급된다. Claude를 효과적으로 쓰려면 감독이 필요하지만, Claude를 감독하는 데 필요한 코딩 능력은 AI 과사용으로 위축될 수 있다는 것이다 [3].
나는 이 문제를 조금 다른 관점에서 생각해보고 싶었다. 이것은 단순히 “AI를 쓰면 바보가 된다”는 이야기가 아니다. 오히려 이 문제는 천재성이란 무엇인가, 그리고 AI 시대에 인간은 어떤 방식으로 자신의 천재성을 확장하거나 잃어버리는가에 대한 이야기다.
2. 천재란 무엇인가?
나는 천재를 이렇게 정의하고 싶다.
천재란, 남들이 System 2로 어렵게 수행해야 하는 일을 System 1처럼 조건반사적으로 수행할 수 있는 사람이다.
여기서 System 1과 System 2는 대니얼 카너먼이 『Thinking, Fast and Slow』에서 설명한 개념이다. System 1은 빠르고 직관적이며 자동적인 사고이고, System 2는 느리고 의식적이며 분석적인 사고다 [4]. 물론 실제 인간 인지는 이분법보다 훨씬 복잡하겠지만, 직관적인 설명에는 여전히 유용한 틀이다.
미술의 천재를 생각해보자. 보통 사람은 구도, 색채, 명암, 인체 비율, 시선의 흐름을 의식적으로 계산해야 한다. 그러나 뛰어난 화가는 그것을 “그냥” 한다. 물론 그 “그냥” 뒤에는 엄청난 훈련과 경험이 숨어 있겠지만, 외부에서 보기에는 복잡한 설계가 하나의 감각처럼 발현된다.
수학의 천재도 비슷하다. 보통 사람은 공리에서 출발해 정의를 확인하고, 보조정리를 쌓고, 예제를 손으로 풀어가며 조금씩 이해한다. 그런데 어떤 사람은 구조 자체를 한 번에 본다. 남들이 긴 논리적 사다리를 타고 올라가야 도달하는 곳에, 그는 마치 공간적 직관처럼 바로 도착한다.
그렇다면 개발의 천재는 무엇일까?
나는 개발의 천재란 큰 시스템을 굳이 세세하게 쪼개지 않아도 한 번에 구조화할 수 있는 사람이라고 생각한다. 혹은 실제로는 쪼개고 있지만 그 속도가 너무 빨라서 외부에서 보기에는 한 번에 구현하는 것처럼 보이는 사람이다. 복잡한 요구사항을 받으면, 그는 자연스럽게 모듈 경계, 데이터 흐름, 인터페이스, 실패 가능성, 테스트 전략을 동시에 떠올린다. 남들이 순서대로 생각해야 하는 것들을 그는 거의 병렬적으로 처리한다.
이런 사람은 단순히 타이핑이 빠른 사람이 아니다. 코드를 많이 쓰는 사람이 아니라, 복잡성을 낮은 인지 비용으로 다룰 수 있는 사람이다.
3. 연구의 천재는 toy experiment를 잘하는 사람이다
그렇다면 연구의 천재는 무엇일까?
나는 연구의 천재란 toy experiment를 잘 설계하는 사람이라고 생각한다.
연구에서 가장 어려운 점은 내 가설을 한 번에 증명할 수 없다는 것이다. 특히 AI 연구에서는 더 그렇다. 우리가 다루는 시스템은 너무 크고, 변수는 너무 많고, 실험 비용은 너무 비싸다. 거대한 모델을 학습시키고, 수십 개의 벤치마크를 돌리고, 긴 분석을 거쳐야만 어떤 가설이 맞는지 틀린지 알 수 있다면 연구의 반복 속도는 너무 느려진다.
그래서 좋은 연구자는 작은 실험을 잘 만든다. 아주 작은 컴퓨팅과 짧은 시간으로도 핵심 가설의 일부를 검증할 수 있는 장치를 설계한다. 이 작은 실험은 완전한 증명은 아니지만, 방향을 알려준다. “이 가설은 가능성이 있다”, “이 현상은 생각보다 약하다”, “문제의 원인은 모델 크기가 아니라 데이터 분포일 수 있다” 같은 신호를 준다.
그리고 더 중요한 것은 그다음이다. 좋은 연구자는 toy experiment의 결과를 바탕으로 다시 가설을 고친다. 한 번의 큰 승부를 거는 것이 아니라, 빠른 반복을 통해 현실에 더 가까운 가설을 계속 만들어간다.
이 관점에서 연구의 천재성은 거대한 사고를 한 번에 완성하는 능력이 아니다. 오히려 반대다. 거대한 문제를 작고 날카로운 실험으로 줄이는 능력이다. 남들이 막연하게 “이 모델이 더 잘할 것 같다”, “이 데이터가 도움이 될 것 같다”, “이 구조가 더 robust할 것 같다”고 말할 때, 연구의 천재는 그것을 하루 안에 확인 가능한 형태로 바꾼다.
즉, 연구의 천재는 답을 아는 사람이 아니라, 현실이 빠르게 대답하도록 질문을 설계하는 사람이다.
4. AI는 이미 부분적인 천재성을 가지고 있다
이제 다시 AI 이야기로 돌아와보자.
오늘날의 AI는 이상한 의미에서 이미 상당한 천재성을 가지고 있다. 많은 영역에서 AI는 인간이 System 2로 해야 하는 일을 System 1처럼 수행한다. 글을 요약하고, 코드를 생성하고, API 사용법을 찾아내고, 에러 로그를 읽고, 문서 초안을 만들고, 실험 계획을 제안한다. 물론 정확하지 않을 때도 많고, 환각도 있으며, 깊은 이해 없이 그럴듯하게 말할 때도 있다. 그러나 속도와 범위만 놓고 보면 AI는 이미 많은 수재들을 천재처럼 보이게 만드는 능력을 가지고 있다.
문제는 이 천재성이 아직 내 방식으로 정렬되어 있지 않다는 점이다.
내가 원하는 것은 단순히 “빠르게 코드 짜줘”가 아니다. 내가 원하는 것은 다음에 가깝다.
•
내 문제의 핵심 병목을 이해해줘.
•
내가 세운 가설의 약한 부분을 찔러줘.
•
내가 직접 생각해야 하는 부분과 위임해도 되는 부분을 구분해줘.
•
내가 놓친 실험 설계를 제안해줘.
•
하지만 내가 반드시 가져야 할 mental model은 빼앗지 말아줘.
•
내 연구 스타일, 내 코드베이스, 내 조직의 제약, 내 윤리 기준에 맞춰서 도와줘.
이것은 단순한 prompting 문제가 아니다. alignment와 personalization의 문제다. AI가 일반적인 천재성을 가지고 있다고 해서, 곧바로 “나의 천재성”을 증폭해주는 것은 아니다. 오히려 잘못 쓰면 나의 사고 흐름을 흐리고, 내가 직접 부딪혀야 할 마찰을 제거해버리고, 장기적으로는 내 판단력을 약화시킬 수 있다.
그래서 Lars Faye의 글에서 말하는 인지부채는 매우 중요하다. AI의 위험은 단순히 틀린 코드를 만드는 것이 아니다. 더 깊은 위험은 내가 생각해야 할 일을 AI가 대신하면서, 내가 어떤 문제를 더 이상 생각하지 않게 되는 것이다.
5. 인지부채는 천재성을 막는 병목이다
앞서 천재를 “남들이 System 2로 해야 하는 일을 System 1처럼 수행하는 사람”이라고 했다. 그렇다면 천재성은 단순한 재능이 아니라, 오랜 훈련과 반복을 통해 특정 사고가 자동화된 상태라고도 볼 수 있다.
좋은 개발자는 수많은 버그를 겪으며 디버깅 감각을 만든다. 좋은 연구자는 수많은 실패한 실험을 통해 “이건 안 될 것 같다”는 직관을 만든다. 좋은 작가는 수많은 문장을 쓰고 지우며 문장의 리듬을 몸에 익힌다. 좋은 수학자는 수많은 예제와 반례를 통해 개념의 형태를 감각적으로 파악한다.
그런데 AI가 이 마찰을 너무 일찍 제거하면 어떻게 될까?
처음에는 좋아 보인다. 빠르게 결과가 나온다. 시행착오가 줄어든다. 지루한 부분을 건너뛸 수 있다. 하지만 동시에 내 안에서 형성되어야 할 직관이 자라지 않을 수 있다. 실패를 통해 쌓아야 할 감각이 외주화된다. 문제를 쪼개는 근육이 약해진다. 결과는 있는데, 그 결과를 낳는 사고 과정이 내 것이 아니게 된다.
이것이 인지부채다.
기술부채는 코드베이스에 남는다. 인지부채는 사람에게 남는다. 기술부채는 리팩터링으로 갚을 수 있다. 그러나 인지부채는 어느 순간 내가 무엇을 모르는지도 모르는 상태로 나타난다. 더 무서운 것은, 인지부채가 쌓인 사람은 AI의 결과물이 좋은지 나쁜지 판단하기 어렵다는 점이다. AI를 잘 쓰기 위한 능력 자체가 약해졌기 때문이다.
6. 그렇다면 AI는 천재성을 죽이는가?
그렇지는 않다고 생각한다.
오히려 나는 AI가 수재를 천재의 영역까지 끌어올릴 수 있다고 본다. 여기서 수재란 성실하고, 이해력이 좋고, 문제를 잘 따라가지만, 모든 것을 압도적인 직관으로 처리하지는 못하는 사람이다. AI는 이런 사람에게 엄청난 보조 두뇌가 될 수 있다.
예를 들어 개발에서 AI는 다음과 같은 일을 맡을 수 있다.
•
boilerplate 코드 생성
•
API 사용 예제 작성
•
테스트 케이스 초안 생성
•
로그 분석 보조
•
리팩터링 후보 제안
•
문서화
•
반복적인 마이그레이션 작업
•
여러 구현 대안 비교
연구에서도 마찬가지다.
•
관련 연구 빠르게 훑기
•
실험 아이디어 브레인스토밍
•
ablation 후보 정리
•
toy experiment 코드 초안 작성
•
논문 구조 설계
•
결과 표와 그래프 해석 보조
•
반론 가능성 탐색
•
리뷰어 관점의 질문 생성
이런 작업들은 분명 중요하지만, 매번 인간의 깊은 사고를 요구하지는 않는다. 이런 일을 AI에게 맡기면 인간은 더 본질적인 문제에 집중할 수 있다. 오히려 AI 덕분에 더 많은 사람이 이전에는 천재만 가능했던 속도와 범위의 탐색을 할 수 있게 될지도 모른다.
그러므로 핵심은 AI 사용 여부가 아니다. 핵심은 무엇을 AI에게 맡기고, 무엇을 끝까지 내가 붙잡을 것인가이다.
7. Harness Engineering이라는 새로운 능력
나는 앞으로 중요한 능력 중 하나가 harness engineering이 될 것이라고 생각한다.
여기서 harness engineering이란 AI가 안전하고 유용하게 일할 수 있도록 작업 환경, 평가 기준, 테스트, 로그, 컨텍스트, 권한, 반복 루프를 설계하는 능력이다. 단순히 프롬프트를 잘 쓰는 것이 아니다. AI가 내 일을 대신하는 것이 아니라, 내 사고를 증폭하도록 장치를 만드는 것이다.
좋은 harness는 AI의 강점을 살리고 약점을 제한한다.
•
AI가 많이 생성하되, 사람이 리뷰 가능한 단위로 쪼갠다.
•
AI가 여러 대안을 내되, 선택 기준은 명확히 한다.
•
AI가 코드를 수정하되, 테스트와 diff를 반드시 남기게 한다.
•
AI가 리서치를 하되, 출처와 불확실성을 분리하게 한다.
•
AI가 실험을 제안하되, 핵심 가설과 관찰 지표를 명시하게 한다.
•
AI가 반복 작업을 하되, 최종 mental model은 사람이 갖도록 한다.
이런 의미에서 harness engineering은 “AI에게 일을 시키는 기술”이 아니다. 더 정확히는 AI와 함께 일할 때 인지부채를 통제하는 기술이다.
Lars Faye의 글은 AI를 “Ship’s Computer”처럼 쓰고, “Data”처럼 쓰지 말라고 말한다 [1]. 이 비유는 꽤 적절하다. 스타트렉의 Data는 독립적인 판단자에 가깝지만, Ship’s Computer는 인간의 판단을 보조하는 시스템이다. 모든 것을 맡기는 존재가 아니라, 인간이 더 잘 판단하도록 돕는 장치다.
나는 여기에 한 가지를 더 붙이고 싶다. AI는 선장이 되어서는 안 된다. 하지만 좋은 항법장치가 될 수는 있다. 문제는 항법장치가 좋아질수록, 선장이 지도를 읽는 법을 잊어버릴 수 있다는 점이다.
8. 중요한 일에는 인지부채를 최소화해야 한다
결국 trade-off의 문제다.
모든 일을 직접 할 필요는 없다. 오히려 모든 일을 직접 하겠다는 태도는 비효율적이다. 잡무, 반복 작업, boilerplate, 형식 변환, 문서 정리, 초안 생성, 단순 검색, 로그 요약 같은 일들은 적극적으로 AI에게 맡겨야 한다. 이런 부분에서 AI를 쓰지 않는 것은 계산기를 두고 손으로 긴 나눗셈을 하는 것과 비슷할 수 있다.
하지만 나의 본질적인 일에는 조심해야 한다.
개발자라면 시스템의 핵심 구조, 장애가 났을 때의 디버깅 경로, 보안 경계, 데이터 모델, 성능 병목은 직접 이해해야 한다. 연구자라면 핵심 가설, 실험 설계, 관찰 지표, 실패 해석, 논문의 주장 구조는 직접 붙잡아야 한다. 작가라면 이야기의 정서, 인물의 욕망, 문장의 리듬, 세계관의 핵심 긴장은 직접 가져야 한다.
AI가 해도 되는 일과 내가 해야 하는 일을 구분하는 기준은 단순하다.
이 일을 AI에게 맡겼을 때, 나의 핵심 판단력이 약해지는가?
약해지지 않는다면 맡겨도 된다. 오히려 적극적으로 맡기는 편이 좋다. 하지만 그 일을 맡겼을 때 내가 문제를 보는 눈을 잃어버린다면, 그 일은 적어도 일정 부분 직접 해야 한다.
잡무는 harness engineering으로 쳐내야 한다. 그러나 가장 본질적인 일에서는 인지부채를 최소화해야 한다.
9. 천재가 많아지는 세상
AI 시대는 천재를 대체하는 시대일까, 아니면 천재가 많아지는 시대일까?
나는 둘 다 가능하다고 생각한다.
AI를 무분별하게 사용하면 사람들은 점점 더 얕은 오케스트레이터가 될 수 있다. 그들은 많은 코드를 만들고, 많은 문서를 만들고, 많은 결과물을 만들지만, 정작 그 결과물을 깊이 이해하지 못할 수 있다. 겉으로는 생산성이 높아졌지만, 안쪽에서는 판단력이 약해지는 세계다.
반대로 AI를 잘 사용하면 더 많은 사람이 천재처럼 일할 수 있다. 혼자서는 며칠 걸리던 탐색을 몇 시간 안에 끝내고, 수십 개의 대안을 빠르게 비교하고, 작은 실험을 반복하며, 자신의 가설을 더 정교하게 만들 수 있다. 이 경우 AI는 인간의 사고를 대체하는 것이 아니라, 인간의 사고가 더 빠르게 현실과 충돌하도록 돕는다.
그 차이는 어디에서 오는가?
나는 그것이 인지부채를 의식하느냐에서 온다고 생각한다. AI를 쓰면서도 내가 무엇을 배우고 있는지, 무엇을 잃고 있는지, 어떤 감각을 유지해야 하는지 계속 점검해야 한다. AI가 만들어준 결과물을 소비하는 사람이 아니라, AI를 통해 더 강한 mental model을 만드는 사람이 되어야 한다.
천재성은 결과의 속도만이 아니다. 천재성은 복잡한 문제를 낮은 인지 비용으로 다루는 능력이다. AI는 그 비용을 낮춰줄 수 있다. 그러나 잘못 쓰면, 비용이 낮아진 것이 아니라 비용을 미래의 나에게 떠넘긴 것일 수 있다.
그것이 agentic coding 시대의 가장 중요한 함정이다.
그리고 동시에 가장 큰 기회이기도 하다.
10. 결론: AI를 쓰되, 나의 생각을 외주화하지 않기
Agentic coding은 함정일 수 있다. 하지만 AI 자체가 함정인 것은 아니다. 함정은 AI에게 너무 많은 것을 맡긴 나머지, 내가 무엇을 하고 있는지 모르게 되는 상태다. 함정은 속도가 빨라졌다는 이유로 이해를 생략하는 것이다. 함정은 잡무뿐 아니라 나의 핵심 사고까지 외주화하는 것이다.
앞으로 더 많은 사람이 AI와 함께 일하게 될 것이다. 코딩뿐 아니라 연구, 글쓰기, 디자인, 기획, 교육, 투자, 법률, 의료, 행정까지 거의 모든 지적 작업이 AI와 결합될 것이다. 이때 중요한 질문은 “AI를 쓸 것인가 말 것인가”가 아니다.
중요한 질문은 이것이다.
나는 AI를 통해 더 깊이 생각하고 있는가, 아니면 생각하지 않아도 되는 사람이 되어가고 있는가?
잡무는 과감하게 AI에게 맡기자. 반복 작업은 harness engineering으로 제거하자. 그러나 내 일의 가장 중요한 부분, 나를 나답게 만드는 사고의 핵심만큼은 끝까지 붙잡자.
AI는 우리를 천재처럼 보이게 만들 수 있다.
하지만 진짜 목표는 천재처럼 보이는 것이 아니다.
AI를 통해 실제로 더 좋은 질문을 던지고, 더 빠르게 배우고, 더 깊게 이해하는 사람이 되는 것이다.
그때 비로소 우리는 천재가 훨씬 많아진 세상에 도착할 수 있다.
참고자료
[1] Agentic Coding is a Trap, Lars Faye, https://larsfaye.com/articles/agentic-coding-is-a-trap
[2] Agentic Coding은 함정이다, GeekNews, https://news.hada.io/topic?id=29155
[3] How AI is transforming work at Anthropic, Anthropic, https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic
[4] Thinking, Fast and Slow, Daniel Kahneman, https://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow
