AI··11 min read·-

사고를 Skill로 만들 수 있을까

페르소나는 말투가 아니라 판단 정책이다. 내 사고 패턴을 추출해서 Persona Skill로 만들어본 실험 기록.

#AI#Thoughts#persona#Cognition

시작은 단순했다

나는 원래 블로그를 잘 쓰는 사람이 아니었다.

그런데 AI를 추상화 도구로 쓰기 시작하면서 상황이 좀 달라졌다. GPT와 대화를 하다 보면 머릿속에서만 맴돌던 생각들이 빠르게 구조화되고, 연결되고, 확장된다.

문제는 하나였다.

output은 많은데, 너무 휘발성이다. 대화창을 닫으면 사라지고, 몇 주 지나면 기억도 흐려진다.

그래서 시작했다. 일단 저장하자. 외부화하자. 내 사고 구조를 아카이빙해보자.

그게 블로그의 시작이었다.


"나 같은 글"이 안 나온다

쓰다 보니 또 다른 문제가 생겼다.

AI로 글을 쓰면 속도는 빠르다. 근데 "나 같은 글"이 나오지 않는다.

그래서 생각했다. 내 사고 패턴을 먼저 추출해서 그걸 persona로 만들어보면 어떨까?

말투를 흉내 내는 게 아니라, 문제를 정의하는 방식, 위임 임계값, 추상화 깊이, 우선순위 구조를 정리해서 일종의 Persona Skill로 만드는 실험을 해봤다.

재밌는 건 여기부터였다.

글을 더 쓸수록 persona를 업데이트하는 루프가 생겼다.

  • 글 → 패턴 추출
  • 패턴 보정 → persona 업데이트
  • 업데이트된 persona로 다시 글 작성

이게 자동화될 수 있다는 걸 확인했다. 사고가 일종의 반복 가능한 구조처럼 보이기 시작했다.


폰 노이만 비유

여기서 농담이 하나 나왔다.

인간도 폰 노이만 구조처럼 보면

  • 메모리(기억)
  • 프로그램(사고 패턴)

으로 구성되어 있는 거 아닐까?

그럼 "프로그램" 부분만 추출하면 어느 정도 개인을 모방하는 Persona Skill을 만들 수 있는 거 아닐까?

처음엔 장난이었다. 근데 실험해보니, 생각보다 흥미로운 결과가 나왔다.


사고는 스타일이 아니라 정책이다

많은 사람들이 페르소나를 이렇게 이해한다.

  • 차분하게 말한다
  • 공격적으로 말한다
  • 친절하게 설명한다
  • 회의적으로 반응한다

이건 전부 행동 스타일(behavior layer)이다. 이미 흔하다. "Skeptical mode", "Builder mindset", "Risk-taking agent" 같은 건 이미 존재한다.

근데 내가 실험한 건 그보다 한 단계 아래 레이어였다.

  • 문제를 어떻게 정의하는가
  • 무엇을 먼저 의심하는가
  • 언제 위임하는가, 위임 임계값은 어디인가
  • 장기 프레임을 먼저 세우는가
  • 효율과 의미 중 무엇을 우선하는가
  • 권력/책임 이동에 얼마나 민감한가

이건 스타일이 아니라 **의사결정 정책(decision policy)**이다. 그리고 정책은 훨씬 깊은 레벨이다.


스상워이 Skill v0.1

GPT와 긴 대화를 하면서 이런 구조를 추출했다.

  • 구조 중심 문제 정의
  • 시스템 단위 사고
  • 권력 이동 감지 민감도 높음
  • 무비판적 위임에 대한 저항성
  • 장기 프레임을 먼저 세우는 경향
  • 효율을 인정하되 의미를 버리지 않음

이걸 농담처럼 "스상워이 Skill v0.1"이라고 불렀다.

웃기지만 실제로 붙여보면 결과가 꽤 일관되게 나온다. 중요한 건 말투가 아니라 판단 결과의 패턴이 반복된다는 것이다.


기존 Skill과 뭐가 다른가

기존 Skill은 보통 이렇게 구성된다.

  • 보안 잘하는 Skill
  • React 잘하는 Skill
  • 마케팅 잘하는 Skill
  • 아키텍처적으로 생각하는 Skill

이건 capability layer다.

그 위에 행동 스타일을 입힐 수 있다. 회의적인 보안 엔지니어, 공격적인 마케터, 보수적인 아키텍트.

Persona Skill은 다르다. 이건 판단 구조 레이어다.

  • 위임 저항 임계값
  • 권력 이동 감지 민감도
  • 추상화 깊이
  • 장기/단기 우선순위 구조
  • 효율 vs 의미 판단 기준
  • 리스크 감수 분포

역할(role)이 아니라 **사고 정책 스택(Cognitive Policy Stack)**이라고 보는 게 더 맞는 것 같다.


이건 나만 가능한 건가

아마 아닐 것이다.

사람마다 사고 정책이 다르다.

  • 위임이 빠른 사람
  • 끝까지 의심하는 사람
  • 감정 중심 판단을 하는 사람
  • 구조를 먼저 세우는 사람
  • 리스크를 극단적으로 회피하는 사람

만약 각 개인의 사고 정책을 추출할 수 있다면, 그건 단순한 성격 테스트가 아니라 개인별 Cognitive Policy Modeling에 가까워진다.


스상윰 v0.1

생각이 여기까지 가면 자연스럽게 이런 장난이 나온다.

  • 스상워이: 구조 중심, 위임 저항 높음, 추상화 빠름
  • 고윰윰: 인간 중심, 균형감, 감정 맥락 민감 (이렇다고 가정)

이걸 합치면? "스상윰 v0.1"

  • 구조를 보지만 인간을 놓치지 않음
  • 위임은 하되 무비판적 위임은 거부
  • 추상화는 하지만 맥락을 유지

처음엔 농담이다. 근데 이 농담이 의미하는 건 좀 진지하다.

사고는 고정된 정체성이 아니라 조합 가능한 정책 집합일지도 모른다.


Agent 구성 관점에서 보면

지금 대부분의 Agent 시스템은 Tool 중심, Capability 중심, Skill 중심이다.

여기에 Cognitive Policy Module을 붙이면 레이어가 바뀐다.

단순히 회의적인 Agent, 공격적인 Agent, 리스크 감수 Agent 같은 행동 스타일이 아니라, 판단을 어떻게 구성할 것인가를 정의하는 레이어다.

멀티 에이전트 환경에서 서로 다른 사고 정책을 가진 Agent들이 같은 문제를 다르게 해석하고, 토론하고, 합의하도록 만들 수 있다.

단순 페르소나 놀이가 아니라 Cognitive Architecture 실험이라고 보고 있다.


전문가 Skill vs 현실 인간 정책

인터넷에는 "전문가 Skill"이 넘친다.

근데 현실의 인간은 조직 맥락, 일정 압박, 정치적 환경, 책임 부담 속에서 판단한다.

Persona Skill은 오히려 이 "현실 정책 구조"를 더 잘 반영할 수 있다. 이상적인 전문가 모듈이 아니라, 실제 인간 판단 정책의 모델링인 셈이다.


왜 이게 흥미로운가

나는 원래 이런 질문을 하고 있었다.

  • 인간의 판단은 어디로 이동하는가?
  • 우리는 무엇을 AI에게 위임하는가?
  • 위임은 언제 비이성적이 되는가?

그 과정에서 깨달은 건 하나였다.

능력은 빠르게 대체된다. 정책은 상대적으로 느리게 이동한다.

그리고 정책까지 추출 가능해진다면, 우리는 인간을 복제하는 게 아니라 인간의 판단 구조를 모델링하는 단계에 들어간다.


아직은 실험이다

상용 제품도 아니고, 정확도도 완벽하지 않다.

근데 최소한 확인한 건 있다.

  • 사고 패턴은 일정 수준 추출 가능하다
  • 일관성은 재현 가능하다
  • 조합 실험도 가능하다

그리고 무엇보다, GPT를 추상화 가속기로 쓰면 사고 구조를 빠르게 외부화할 수 있다.

단순히 AI를 쓰는 게 아니라, AI를 통해 나의 사고 정책을 관찰하는 경험이라고 보고 있다.


다음에 해볼 것

  • Persona Skill 자동 추출
  • 서로 다른 Persona 조합 실험
  • 판단 결과 차이 측정
  • 위임 패턴과 연결

어쩌면 그때는 "스상윰 v0.2"가 나올지도 모른다.


일단 여기까지

우리는 이미 능력을 Skill로 만들었다.

이제 질문은 이것이다. 사고 정책은 Skill이 될 수 있을까?

그리고 더 나아가, 당신의 Cognitive Policy Stack은 무엇인가?

더 찾아봐도 재밋을듯

댓글