자율적 기계 지능을 향한 경로

Digest: 현재 ML 시스템은 인간이 약 20시간이면 배우는 운전 같은 과제에서조차 방대한 훈련 데이터를 요구하며, 새로운 상황에 대한 적응력이 현저히 떨어진다. LeCun은 이 격차의 핵심 원인이 **월드 모델(World Model, 세계의 작동 방식에 대한 내부 표상)**의 부재라는 통찰을 제시한다. 기존 생성 모델이 픽셀이나 토큰 수준에서 모든 세부사항을 예측하려는 반면, 제안된 **JEPA(Joint Embedding Predictive Architecture, 결합 임베딩 예측 아키텍처)**는 추상 표현 공간에서 예측을 수행하여 예측 불가능한 세부사항(나뭇잎의 움직임, 카펫의 질감 등)을 자연스럽게 무시한다. 이 통찰을 기반으로, Configurator(설정기)·Perception(지각)·World Model(월드 모델)·Cost(비용)·Short-term Memory(단기 기억)·Actor(행위자)로 구성된 6모듈 인지 아키텍처를 제안하며, **H-JEPA(Hierarchical JEPA)**를 통해 다중 추상화 수준과 시간 스케일에서의 계층적 계획을 가능하게 한다. 다만, 이 논문은 순수한 이론적 비전 제안으로서 실험적 검증이 전혀 없으며, Malcolm Lett 등의 비판에 따르면 Mode-2 계획이 진정한 System II 추론인지, 단순히 더 정교한 System I인지에 대한 논쟁이 있다. JEPA가 표준 인코더-디코더 아키텍처보다 월드 모델링에서 실질적으로 우월한지, 그리고 계층적 계획에서 궤적 수가 k^t로 폭발하는 조합적 문제를 실제로 어떻게 해결할 수 있는지는 핵심적인 미해결 질문으로 남아 있다.


섹션별 요약

Introduction

LeCun은 현재 AI의 세 가지 근본적 도전과제를 제시한다. 첫째, 기계가 주로 관찰을 통해 세계를 표상하고, 예측하고, 행동하는 법을 학습하는 방법이다. 실세계에서의 상호작용은 비용이 크고 위험하기 때문이다. 둘째, 기계가 경사 기반 학습과 양립 가능한 방식으로 추론하고 계획하는 방법이다. 현재 최선의 학습 방법은 미분 가능한 아키텍처를 요구하는데, 이는 논리 기반 기호 추론과 조화시키기 어렵다. 셋째, 기계가 다중 추상화 수준과 시간 스케일에서 지각과 행동 계획을 계층적으로 표상하는 방법이다. 인간과 동물은 복잡한 행동을 하위 수준의 행동 시퀀스로 분해하여 장기 예측과 계획을 수행한다.

Methods

논문의 핵심 방법론은 세 층위로 구성된다. 가장 바깥 층위는 6모듈 인지 아키텍처로, 모든 모듈이 미분 가능하고 다수가 훈련 가능하다. 중간 층위는 JEPA와 H-JEPA로, 비생성적(non-generative) 예측 월드 모델 아키텍처로서 표현의 계층 구조를 학습한다. 가장 안쪽 층위는 VICReg(Variance-Invariance-Covariance Regularization) 등 비대조적(non-contrastive) 자기지도학습 패러다임으로, 동시에 정보적(informative)이고 예측 가능한(predictable) 표현을 생성한다.

Results

이 논문은 position paper로서 실험 결과를 포함하지 않는다. 다만, LeCun은 이론적 논증을 통해 JEPA가 생성 모델 대비 5배 적은 반복으로 수렴할 수 있으며(I-JEPA 후속 연구에서 검증), 표현 공간에서의 예측이 예측 불가능한 노이즈에 대한 민감도를 줄인다고 주장한다.

Discussion

논문은 현재 LLM 기반 접근의 근본적 한계를 지적한다. 자기회귀적 토큰 예측(autoregressive token prediction)은 세계에 대한 진정한 이해 없이 통계적 패턴만을 학습하며, 이는 상식(common sense)이나 물리적 직관을 요구하는 과제에서 실패한다. LeCun은 에너지 기반 모델(EBM)과 잠재 변수를 결합한 JEPA 프레임워크가 이러한 한계를 극복할 수 있는 경로를 제공한다고 주장하지만, 구체적 구현이나 벤치마크 검증은 후속 연구에 맡기고 있다.

Insights

  • 주목할 점: 표현 공간에서의 예측이라는 JEPA의 핵심 통찰은 이후 I-JEPA(Assran et al., 2023)와 V-JEPA(Bardes et al., 2024)로 실제 구현되어 자기지도학습에서 SOTA 성능을 달성했다. 이는 이 position paper의 비전이 단순한 사변이 아님을 보여준다.
  • 연결 고리: 6모듈 인지 아키텍처는 인지과학의 Global Workspace Theory(Baars, 1988)와 구조적 유사성을 가지며, Configurator 모듈은 주의(attention) 메커니즘의 역할을 수행한다.
  • 시사점: LLM이 토큰 시퀀스 예측에 머무는 한 진정한 세계 이해에 도달할 수 없다는 LeCun의 주장은 AI 커뮤니티에서 지속적인 논쟁을 촉발했다. 특히 GPT-4 이후 LLM의 emergent abilities가 이 주장을 반증하는지 여부가 핵심 쟁점이다.
  • 비판적 코멘트: Mode-2가 진정한 System II 추론인지에 대한 Lett의 비판은 설득력이 있다. World model을 통한 시뮬레이션과 최적화는 여전히 미분 가능한 연산의 반복이며, 논리적 추론의 구조적 특성(compositionality, systematicity)을 보장하지 않는다.

Discussion Points

  • 논쟁점: LLM이 이미 암묵적 월드 모델을 학습하고 있다는 주장(Othello-GPT 연구 등)과 LeCun의 “LLM에는 월드 모델이 없다”는 주장 사이의 긴장. 둘 다 “월드 모델”의 정의에 의존한다.
  • 검증 필요 가정: JEPA의 잠재 변수 z가 실제로 예측 불가능한 정보를 적절히 포착하는지, 아니면 단순히 학습 신호를 희석시키는지에 대한 실증적 검증이 필요하다.
  • 후속 연구: I-JEPA(이미지), V-JEPA(비디오)에 이어 language 도메인에서의 JEPA 적용이 핵심 과제로 남아 있다. 또한 H-JEPA의 계층적 계획 능력에 대한 실증적 검증은 아직 이루어지지 않았다.

메타데이터

항목내용
제목A Path Towards Autonomous Machine Intelligence (Version 0.9.2)
저자Yann LeCun
소속Courant Institute of Mathematical Sciences, New York University; Meta - Fundamental AI Research
연도2022
발표OpenReview (Position Paper, 비동료심사)
링크OpenReview
키워드World Model, JEPA, H-JEPA, Energy-Based Model, Self-Supervised Learning, Cognitive Architecture, AGI

왜 이 연구를 하는가?

핵심 질문

동물과 인간처럼 효율적으로 학습하고, 추론하고 계획하며, 외부 보상이 아닌 내재적 동기에 의해 행동하는 자율적 지능 에이전트를 어떻게 구축할 수 있는가?

기존 접근법의 한계

한계설명
데이터 비효율성인간은 약 20시간으로 운전을 배우지만, ML 시스템은 수백만 마일의 데이터를 필요로 한다. 가장 희귀한 상황 조합까지 훈련 시 경험해야 신뢰성을 확보할 수 있기 때문이다.
추론·계획 불가현재 최선의 학습 방법은 손실의 경사를 추정·사용하는 것인데, 이는 미분 가능한 아키텍처에서만 가능하며 논리 기반 기호 추론과 양립하기 어렵다.
상식의 부재ML 시스템은 “무엇이 그럴듯하고, 무엇이 불가능한지”를 판단하는 상식(common sense)이 없다. 상식은 세계 모델의 집합으로 볼 수 있다.
계층적 표상 부재현재 시스템은 단일 추상화 수준에서 작동하여, 복잡한 행동을 하위 행동으로 분해하는 계층적 계획이 불가능하다.

핵심 통찰

  • 월드 모델이 지능의 핵심이다: 상식은 세계 모델의 집합이며, 동물은 이 모델을 사용해 매우 적은 시행착오로 새로운 기술을 학습한다. 심리학에서 오랫동안 논의되어 온 “내부 모델(internal model)” 개념을 ML 아키텍처로 구체화해야 한다.
  • 추상 표현 공간에서 예측해야 한다: 생성 모델처럼 모든 픽셀/토큰을 예측하는 것은 비효율적이고 불필요하다. 예측 불가능한 세부사항을 무시하고 추상 수준에서 예측하는 것이 핵심이다.

방법 (Method)

프레임워크 개요

graph TB
    subgraph "6모듈 인지 아키텍처"
        CFG["🔧 Configurator<br/>다른 모듈 설정"]
        PER["👁 Perception<br/>s[0] = Enc(x)"]
        WM["🌍 World Model<br/>s[t+1] = Pred(s[t], a[t])"]
        COST["⚖️ Cost Module<br/>C(s) = IC(s) + TC(s)"]
        MEM["🧠 Short-term Memory<br/>상태·비용 저장"]
        ACT["🎬 Actor<br/>a[0] = A(s[0])"]
    end

    ENV["🌎 Environment"] -->|"percept x"| PER
    PER -->|"s[0]"| WM
    PER -->|"s[0]"| ACT
    ACT -->|"action proposal"| WM
    WM -->|"predicted states"| COST
    WM -->|"states"| MEM
    COST -->|"costs"| MEM
    MEM -->|"stored info"| WM
    ACT -->|"action"| ENV
    CFG -.->|"configure"| PER
    CFG -.->|"configure"| WM
    CFG -.->|"configure"| COST
    CFG -.->|"configure"| MEM
    CFG -.->|"configure"| ACT

핵심 구성요소

1. Configurator (설정기)

전체 시스템의 실행 모드를 제어하는 메타 모듈이다. 현재 과제에 따라 다른 모듈들의 매개변수, 주의 초점, 활성화 수준을 조정한다. 인지과학의 실행 기능(executive function)에 해당한다.

2. Perception (지각 모듈)

원시 감각 입력 x로부터 세계의 현재 상태를 추정한다. 수식으로 s[0] = Enc(x)이며, 여기서 Enc는 학습된 인코더이다. 핵심은 원시 입력이 아닌 추상적 표현(representation)으로 변환한다는 점이다.

3. World Model (월드 모델) — 핵심 모듈

현재 상태 s[t]와 행동 a[t]가 주어졌을 때 미래 상태를 예측한다: s[t+1] = Pred(s[t], a[t]). 이 논문의 핵심 주장은 이 예측이 픽셀/토큰 공간이 아닌 추상 표현 공간에서 이루어져야 한다는 것이다. 이를 통해 예측 불가능한 세부사항을 자연스럽게 무시할 수 있다.

4. Cost Module (비용 모듈)

두 구성요소로 나뉜다. Intrinsic Cost(IC)는 하드와이어된 기본 행동 규범으로, 고통이나 배고픔 같은 생물학적 드라이브에 해당한다. Trainable Critic(TC)은 학습 가능한 평가자로, 내재적 비용의 미래 값을 예측하는 역할을 한다. 전체 비용은 C(s) = IC(s) + TC(s)이며, IC(s) = Σᵢ uᵢ·ICᵢ(s), TC(s) = Σⱼ vⱼ·TCⱼ(s)로 분해된다.

5. Short-term Memory (단기 기억)

현재 및 예측된 세계 상태와 관련 비용을 저장한다. 매 행동 후 (s[t], f[t]) 쌍을 기록하여 계획 과정에서 활용한다.

6. Actor (행위자)

최적 행동 시퀀스를 찾는 모듈이다. Mode-1에서는 정책 모듈을 통해 직접 행동을 계산하고(a[0] = A(s[0])), Mode-2에서는 월드 모델과 비용 모듈을 활용하여 최적 행동 시퀀스를 탐색한다.

Mode-1 vs Mode-2 Perception-Action Loops

Mode-1 (Reactive Behavior): 지각→행동의 단일 순방향 패스. 정책 모듈이 현재 상태로부터 직접 행동을 산출한다. 계산 비용이 낮지만, 익숙한 상황에서만 적절하게 작동한다. Daniel Kahneman의 System I(빠른 사고)에 비유된다.

Mode-2 (Planning via World Model): 7단계 순환 프로세스로 구성된다. (1) 지각으로 상태 추정, (2) Actor가 초기 행동 시퀀스 제안, (3) 월드 모델이 결과 상태 시퀀스를 시뮬레이션, (4) 비용 모듈이 총 비용 평가, (5) Actor가 더 낮은 비용의 새 행동 시퀀스 제안, (6) 수렴 후 첫 번째 행동 실행, (7) 상태와 비용을 단기 기억에 저장. System II(느린 사고)에 비유되지만, 이것이 진정한 System II인지에 대해서는 논쟁이 있다.

Mode-2에서 Mode-1으로의 전환: 새로운 기술을 Mode-2로 학습한 후, 충분한 훈련이 이루어지면 정책 모듈이 Mode-1에서 직접 행동을 산출할 수 있게 된다. 이는 인간이 의식적 연습 후 자동화된 기술을 습득하는 과정과 유사하다.

JEPA (Joint Embedding Predictive Architecture)

JEPA의 핵심은 두 인코딩 분기와 하나의 예측기로 구성된다. 입력 x와 y 각각이 인코더 Enc(x)와 Enc(y)를 통해 표현 sₓ와 sᵧ로 변환되고, 예측기가 잠재 변수 z의 도움으로 sₓ로부터 sᵧ를 예측한다: ŝᵧ = Pred(sₓ, z). 에너지는 예측 오차 D(sᵧ, ŝᵧ)로 정의된다.

JEPA가 생성 모델과 근본적으로 다른 점은 세 가지이다. 첫째, 입력 공간이 아닌 표현 공간에서 예측한다. 둘째, y의 인코더가 비관련 세부사항을 제거한 추상 표현을 생성할 수 있다. 셋째, 잠재 변수 z가 x로부터 예측할 수 없는 y의 측면(미래의 불확실성)을 표현한다.

다중 출력을 처리하는 두 가지 메커니즘이 있다. y 인코더의 불변성(invariance) 속성으로 여러 y값을 동일 표현으로 매핑하거나, 잠재 변수 z를 통해 다양한 예측을 생성할 수 있다.

H-JEPA (Hierarchical JEPA)

JEPA를 계층적으로 쌓아 다중 추상화 수준에서의 표현 학습과 예측을 가능하게 한다. JEPA-1은 저수준 표현을 추출하고 단기 예측을 수행한다. JEPA-2는 JEPA-1의 출력을 입력으로 받아 고수준 표현을 추출하고 장기 예측을 수행한다. 더 추상적인 표현은 단기적으로 예측하기 어려운 세부사항을 무시하므로, 더 먼 미래에 대한 예측이 가능해진다. 이러한 추상화 수준과 시간 스케일의 대응 관계가 H-JEPA의 핵심 통찰이다.

계층적 계획 (Hierarchical Planning)

H-JEPA를 기반으로 한 계층적 계획에서, 상위 수준은 장기 예측을 수행하고 고수준 “행동”(실제로는 하위 수준의 목표 상태)을 생성한다. 하위 수준은 단기 예측을 수행하고 실제 운동 행동을 생성한다. 불확실성은 각 수준의 잠재 변수로 처리되며, 가능한 궤적의 수는 각 잠재 변수가 k개의 이산 값을 가질 때 k^t로 증가하므로, 지향적 탐색(directed search)과 가지치기(pruning) 전략이 필수적이다.

자기지도학습과 에너지 기반 모델

자기지도학습(SSL)은 입력 간의 상호 의존성을 포착하도록 학습 시스템을 훈련하는 패러다임이다. 에너지 기반 모델(EBM)은 스칼라 값 함수 F(x,y)를 사용하며, x와 y가 호환될 때 낮은 에너지를, 비호환일 때 높은 에너지를 출력한다. 여기서 x는 관찰된 부분, y는 관찰되지 않았을 수 있는 부분이다. 핵심적으로, 모델이 x로부터 y를 예측할 수 있을 필요가 없다. x와 호환되는 y가 무한히 많을 수 있기 때문이다.

LeCun은 대조적(contrastive) 학습보다 비대조적(non-contrastive) 학습을 선호한다. VICReg(Variance-Invariance-Covariance Regularization)은 표현 붕괴(representation collapse)를 방지하면서 정보적이고 예측 가능한 표현을 학습하는 비대조적 방법이다. Barlow Twins도 유사한 비대조적 접근이다.


발견 (Findings)

주요 결과

이 논문은 position paper로서 정량적 실험 결과를 포함하지 않는다. 대신, 이론적 논증과 비전을 제시한다.

주장근거 유형후속 검증
JEPA는 생성 모델보다 효율적이다이론적 논증I-JEPA(2023)에서 ImageNet SOTA, 5x 적은 반복
표현 공간 예측이 노이즈에 강건하다직관적 논증V-JEPA(2024)에서 비디오 이해 검증
계층적 추상화가 장기 계획을 가능하게 한다인지과학 유추아직 미검증
비대조적 SSL이 대조적보다 우월하다VICReg 관련 논증VICReg(2022) 논문에서 부분 검증

관련 연구 성능 맥락 (본 논문 발표 전후)

논문 자체에는 정량적 결과가 없으나, JEPA 비전의 이론적 기반이 된 연구와 후속 구현의 성능을 맥락적으로 비교한다.

방법도메인Top-1 Acc.학습 방식본 논문과의 관계
SimCLR (Chen et al., 2020)ImageNet~69.3%대조적 SSL대조 학습의 한계를 논거로 활용
BYOL (Grill et al., 2020)ImageNet~74.3%비대조적 SSL대조 없이 붕괴 방지 가능성 증명
Barlow Twins (Zbontar et al., 2021)ImageNet~73.2%비대조적 SSLJEPA 학습 선례
VICReg (Bardes et al., 2022)ImageNet~73.2%비대조적 SSLJEPA 학습 패러다임의 직접적 기반
MAE (He et al., 2022)ImageNet~83.1%생성적 마스킹픽셀 공간 예측의 대표 모델
I-JEPA (Assran et al., 2023)ImageNet~81.9%JEPA 구현본 논문의 직접적 후속 구현

핵심 발견

이 논문의 핵심 기여는 특정 실험적 발견이 아니라 아키텍처적 비전이다. LeCun은 현재 AI 시스템(특히 LLM)이 직면한 근본적 한계를 체계적으로 정리하고, 이를 극복하기 위한 통합적 아키텍처를 제안했다. 이 비전은 이후 I-JEPA와 V-JEPA를 통해 부분적으로 실현되었으나, 완전한 6모듈 인지 아키텍처의 구현은 아직 이루어지지 않았다.


이론적 의의

LLM 패러다임에 대한 체계적 대안 제시

이 논문의 가장 큰 의의는 자기회귀적 토큰 예측이라는 현재 지배적 패러다임의 근본적 한계를 명확히 지적하고, 이에 대한 체계적 대안을 제시했다는 점이다. LeCun은 토큰 예측이 세계에 대한 진정한 이해를 구성하지 않으며, 월드 모델을 통한 추상적 수준의 예측과 계획이 AGI를 향한 필수 경로라고 주장한다. 이 주장은 AI 커뮤니티에서 가장 활발한 논쟁 중 하나를 촉발했다.

인지과학과 ML의 가교

6모듈 인지 아키텍처는 인지과학의 개념(월드 모델, 내재적 동기, 계층적 계획, System I/II)을 미분 가능한 ML 아키텍처로 구체화한 시도이다. 이는 AI 연구에서 인지과학적 영감이 여전히 중요한 역할을 할 수 있음을 보여준다. 특히, 비용 모듈의 Intrinsic Cost / Trainable Critic 분리는 RL의 보상 함수 설계 문제에 대한 새로운 관점을 제공한다.

자기지도학습의 새로운 프레임워크

JEPA는 자기지도학습에서 “무엇을 예측할 것인가”에 대한 근본적 재고를 제안했다. 모든 세부사항을 예측하는 대신 관련 정보만을 추상적 수준에서 예측한다는 아이디어는 I-JEPA와 V-JEPA를 통해 실제로 효과적임이 검증되었으며, 자기지도학습 연구의 새로운 방향을 열었다.


재현성 및 신뢰도 평가

항목등급비고
코드 공개Position paper로 구현 없음
데이터 공개실험 없음
하이퍼파라미터해당 없음
실험 환경해당 없음
통계적 신뢰도정량적 결과 없음
종합 등급D순수 이론적 비전 제안, 실험 검증 없음

주장별 신뢰도

#주장근거신뢰도
1현재 ML 시스템은 월드 모델이 부재하여 데이터 비효율적이다인간 vs ML 학습 효율 비교 (운전 20시간 예시)🟢
2JEPA의 표현 공간 예측이 생성 모델보다 우월하다이론적 논증 + I-JEPA/V-JEPA 후속 검증🟡
3H-JEPA가 계층적 계획을 가능하게 한다인지과학 유추, 구현 미검증🔴
4Mode-2가 System II 추론에 해당한다Kahneman 유추, 비판적 반론 존재 (Lett)🔴
5비대조적 SSL이 대조적 SSL보다 우월하다VICReg/Barlow Twins 논문 인용🟡

읽기 난이도: ⭐⭐

ML 기초(인코더, 자기지도학습, 에너지 기반 모델)에 대한 이해가 필요하지만, 수식이 적고 개념적 설명 위주로 작성되어 대학원 초기 수준에서 접근 가능하다. 인지과학 배경지식(System I/II, 내재적 동기)이 있으면 더 깊은 이해가 가능하다.


관련 연구 비교 매트릭스

본 논문 (LeCun, 2022)On the Measure of Intelligence (Chollet, 2019)I-JEPA (Assran et al., 2023)V-JEPA (Bardes et al., 2024)
핵심 접근6모듈 인지 아키텍처 + JEPA 비전지능의 정의와 측정 프레임워크JEPA의 이미지 도메인 구현JEPA의 비디오 도메인 구현
문제 정의AGI를 위한 아키텍처 로드맵”지능이란 무엇인가”에 대한 근본 질문자기지도 시각 표현 학습자기지도 비디오 표현 학습
데이터N/A (position paper)ARC 벤치마크 제안ImageNetVideoMix2M
핵심 메트릭N/AARC 정확도Linear probe, few-shotVideo classification, action recognition
확장성이론적으로 범용, 구현 미검증평가 프레임워크로 제한적이미지 도메인 검증비디오 도메인 검증
한계실험 없음, 비전만 제안벤치마크 난이도 논쟁language 미적용, 계층적 계획 미검증텍스트 통합 미흡
코드 공개✅ (ARC)

관련 연구

  • On the Measure of Intelligence - Reviewing — Chollet의 지능 정의 프레임워크. LeCun의 “효율적 학습” 주장과 Chollet의 “일반화 능력으로서의 지능” 정의가 상호보완적이다.
  • Scaling Laws for Neural Language Models — Kaplan et al.의 스케일링 법칙. LeCun은 단순한 스케일링이 아닌 아키텍처적 혁신이 AGI의 핵심이라고 반론한다.

원자적 인사이트 (Zettelkasten)

💡 표현 공간 예측이 픽셀/토큰 공간 예측보다 우월하다

출처: A Path Towards Autonomous Machine Intelligence (LeCun, 2022)
유형: 방법론적

생성 모델은 출력의 모든 세부사항(모든 픽셀, 모든 토큰)을 예측해야 하므로, 예측 불가능한 노이즈(나뭇잎의 움직임, 카펫의 질감)까지 모델링하려 시도한다. 반면 JEPA는 인코더가 비관련 세부사항을 제거한 추상 표현을 생성하고, 이 표현 공간에서 예측을 수행함으로써 예측 가능한 구조적 정보에만 집중한다.

핵심 조건/맥락: 이 우월성은 입력이 고차원이고 많은 세부사항이 예측 불가능한 경우(이미지, 비디오, 물리적 세계)에 특히 두드러진다. 텍스트처럼 이미 이산적이고 구조화된 입력에서는 차이가 줄어들 수 있다.
연결: I-JEPA, V-JEPA, VICReg
활용 가능성: 멀티모달 세계 모델 설계 시, 각 모달리티에서 예측 가능한 추상 수준을 결정하는 것이 핵심 설계 결정이 된다.

💡 추상화 수준과 시간 스케일은 대응 관계에 있다

출처: A Path Towards Autonomous Machine Intelligence (LeCun, 2022)
유형: 이론적

H-JEPA에서 더 추상적인 표현은 단기적으로 변동하는 세부사항을 제거하므로, 자연스럽게 더 긴 시간 범위에서의 예측이 가능해진다. 저수준 표현은 밀리초 단위의 운동 제어를, 고수준 표현은 분~시간 단위의 전략적 계획을 담당한다. 이는 인간 뇌의 피질 계층 구조와 유사한 원리이다.

핵심 조건/맥락: 이 대응 관계가 성립하려면 각 추상화 수준에서 적절한 정보 병목(information bottleneck)이 형성되어야 한다. 너무 많은 정보를 보존하면 장기 예측이 어렵고, 너무 적으면 유용한 계획이 불가능하다.
연결: Predictive Coding, Hierarchical Reinforcement Learning
활용 가능성: 계층적 RL이나 options framework 설계 시, 각 계층의 추상화 수준과 시간 해상도를 명시적으로 대응시키는 설계 원칙으로 활용할 수 있다.

💡 내재적 비용(Intrinsic Cost)은 RL의 보상 함수와 근본적으로 다른 동기 부여 메커니즘이다

출처: A Path Towards Autonomous Machine Intelligence (LeCun, 2022)
유형: 이론적

RL에서 보상은 외부에서 주어지며 과제 특정적이다. 반면 LeCun의 Intrinsic Cost는 하드와이어된 기본 행동 규범(고통, 배고픔, 호기심 등)으로, 과제와 무관하게 에이전트의 기본적 행동 성향을 결정한다. Trainable Critic은 이 내재적 비용의 미래 값을 예측하도록 학습되어, 외부 보상 없이도 목적 지향적 행동이 가능해진다. 이는 보상 해킹(reward hacking) 문제를 근본적으로 우회할 수 있는 가능성을 제시한다.

핵심 조건/맥락: Intrinsic Cost의 구체적 설계(어떤 “본능”을 하드와이어할 것인가)가 에이전트의 전체 행동 특성을 결정하므로, AI 안전성 관점에서 매우 중요한 설계 결정이 된다.
연결: Intrinsic Motivation in RL, Reward Hacking, AI Safety
활용 가능성: AI 안전성 연구에서 보상 함수 설계 대신 내재적 비용 구조 설계로 패러다임을 전환할 수 있는 가능성을 탐구할 수 있다.


핵심 용어 정리

용어정의
World Model (월드 모델)세계의 작동 방식에 대한 에이전트의 내부 표상. 현재 상태와 행동이 주어졌을 때 미래 상태를 예측할 수 있는 모델. 상식(common sense)의 기초.
JEPA (Joint Embedding Predictive Architecture)두 입력을 각각 인코딩한 후, 한 표현으로부터 다른 표현을 잠재 변수의 도움으로 예측하는 아키텍처. 픽셀이 아닌 표현 공간에서 예측.
H-JEPA (Hierarchical JEPA)JEPA를 계층적으로 쌓아 다중 추상화 수준과 시간 스케일에서의 표현 학습과 예측을 가능하게 하는 확장.
EBM (Energy-Based Model)입력 쌍 (x, y)에 대해 호환성을 에너지(스칼라 값)로 표현하는 모델. 호환 시 낮은 에너지, 비호환 시 높은 에너지.
VICReg (Variance-Invariance-Covariance Regularization)표현 붕괴를 방지하는 비대조적 자기지도학습 방법. 분산(variance), 불변성(invariance), 공분산(covariance) 세 항의 정규화를 통해 학습.
Barlow Twins두 뷰의 표현 간 교차상관 행렬이 단위 행렬에 가까워지도록 학습하는 비대조적 자기지도학습 방법.
Intrinsic Cost (내재적 비용)에이전트에 하드와이어된 기본 행동 규범. 고통, 배고픔 등 생물학적 드라이브에 해당. RL의 외부 보상과 대비됨.
Trainable Critic (학습 가능 비평가)내재적 비용의 미래 값을 예측하도록 학습되는 모듈. RL의 가치 함수(value function)와 유사하지만 내재적 비용에 기반.
Mode-1 (반응적 행동)지각→행동의 직접적 매핑. 정책 모듈의 단일 순방향 패스. System I(빠른 사고)에 비유.
Mode-2 (계획 기반 행동)월드 모델을 통한 시뮬레이션, 비용 평가, 행동 최적화를 포함하는 7단계 순환 프로세스. System II(느린 사고)에 비유.
Representation Collapse (표현 붕괴)자기지도학습에서 인코더가 모든 입력을 동일한 표현으로 매핑하는 퇴화 현상. VICReg 등으로 방지.
Self-Supervised Learning (자기지도학습)레이블 없는 데이터에서 입력 간의 상호 의존성을 포착하도록 학습하는 패러다임. 지도학습과 강화학습의 대안.
Latent Variable z (잠재 변수)JEPA에서 x로부터 예측할 수 없는 y의 측면을 표현하는 변수. 미래의 불확실성이나 누락된 정보를 모델링.

태그

paper #2022 AGI WorldModel JEPA SelfSupervisedLearning EnergyBasedModel CognitiveArchitecture LeCun