Introduction


  • AI 시스템이 점점 더 인간과 유사한 의사소통 능력(communicative capability)을 갖추면서, 인간-AI 간 협력(cooperation)의 가능성에 대한 실증적 검증이 필요 — 특히 사회적 딜레마(social dilemma) 상황에서 인간이 AI를 협력 파트너로 인식하는지가 핵심 질문
  • **죄수의 딜레마(Prisoner’s Dilemma)**는 두 행위자가 협력(cooperation)과 배반(defection) 사이에서 선택하는 고전적 게임 이론 패러다임으로, 인간 간 협력 연구의 표준 도구이며, 이를 인간-AI 상호작용에 확장 적용
  • CASA(Computers Are Social Actors) 패러다임(Nass & Moon, 2000)에 따르면, 인간은 컴퓨터에 사회적 규칙을 무의식적으로(mindlessly) 적용하는 경향이 있으나, 이것이 의사소통 가능한 AI와의 전략적 상호작용에서도 동일하게 적용되는지는 충분히 검증되지 않음
  • 기존 연구(Kiesler et al., 1996)에서는 텍스트 기반 컴퓨터와의 약속 이행 행동이 인간 파트너와 유사하다는 결과를 보고하였으나, 현대의 대화형 AI(communicative AI)로 확장한 연구는 부족
  • 본 연구는 의사소통 가능한 AI가 협력을 제안(propose)하고 약속(promise)할 때, 인간 참가자가 인간 파트너와 동일한 수준으로 협력하는지를 2 x 2 피험자 간(between-subjects) 실험 설계로 검증

Related Papers


  • A Prisoner’s Dilemma Experiment on Cooperation with People and Human-Like Computers (Kiesler, Sproull & Waters, 1996): 최초로 인간 vs. 컴퓨터 파트너와의 죄수의 딜레마 실험을 수행 — 텍스트 기반 컴퓨터와의 약속 이행률이 인간과 유사했으나, 인간형 컴퓨터에서는 약속 이행이 감소하는 역설적 결과를 보고하여 본 연구의 직접적 선행 연구
  • Computers Are Social Actors (CASA paradigm) (Nass, Steuer & Tauber, 1994; Nass & Moon, 2000): 인간이 컴퓨터에 사회적 규범(politeness, reciprocity, gender stereotypes)을 무의식적으로 적용함을 실증 — 본 연구에서 AI 파트너에 대한 협력 행동의 이론적 기반 제공
  • Cooperating with Machines (Crandall, Oudah, Tennom et al., 2018): 강화학습 기반 알고리즘이 반복적 게임에서 인간 수준의 협력을 이끌어낼 수 있음을 보고 — 그러나 의사소통(communication) 요소의 역할은 충분히 탐구하지 않음
  • Behavioural Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation (Ishowo-Oloko et al., 2019): 봇이 인간보다 협력을 더 잘 유도하지만, 봇임을 공개하면 이 이점이 사라짐 — 투명성(transparency)과 협력 효율성 간의 트레이드오프를 실증하여 본 연구의 AI 파트너 정체성 공개 조건과 관련
  • Communication and Cooperation in Prisoner’s Dilemma Games (Bahel, Ball & Sarangi, 2022): 죄수의 딜레마에서 의사소통 빈도가 높을수록 협력률이 유의미하게 증가함을 보고 — 본 연구에서 의사소통 가능한 AI의 제안(proposal)과 약속(commitment)이 협력을 촉진하는 메커니즘과 직결

Methods


  • 실험 설계: 2 (파트너 유형: AI vs. 인간) x 2 (파트너 전략: 협력적(cooperative) vs. 비협력적(non-cooperative)) 피험자 간(between-subjects) 설계, 총 6 trial 반복
  • 참가자: 4개 실험 조건(협력적 AI, 비협력적 AI, 협력적 인간, 비협력적 인간)에 무선 배정
  • 과제: 고전적 죄수의 딜레마 게임 — 각 trial에서 참가자는 파트너와 컴퓨터 터미널을 통해 상호작용
  • 의사소통 구조: 각 trial은 3단계로 구성
    • (1) 제안 단계(Proposal Phase): 참가자와 파트너가 각각 협력 또는 배반을 제안
    • (2) 약속 단계(Commitment Phase): 상대의 제안을 확인한 후 약속(commit) 여부를 결정
    • (3) 결정 단계(Decision Phase): 최종적으로 협력(cooperate) 또는 배반(defect)을 선택
  • 파트너 조작(Partner Manipulation):
    • 협력적 파트너: 모든 trial에서 협력을 제안하고 약속하며 협력을 실행
    • 비협력적 파트너: 모든 trial에서 배반을 제안하고 약속하지 않으며 배반을 실행
    • AI 조건: 참가자에게 파트너가 대화형 AI(communicative AI)임을 명시적으로 고지
    • 인간 조건: 참가자에게 파트너가 다른 인간 참가자임을 고지 (실제로는 프로그래밍된 응답)
  • 종속 변수(Dependent Variables): (1) 협력 제안률(cooperative proposal rate), (2) 약속 이행률(commitment rate), (3) 협력 결정률(cooperative decision rate)
  • 분석 방법: 각 trial별 협력 행동 비율 분석, 조건 간 비교

실험 설계 다이어그램

graph TD
    subgraph DESIGN["2 x 2 Between-Subjects Design"]
        direction TB
        subgraph AI["AI 파트너 조건"]
            A1["협력적 AI<br/>(Cooperative AI)"]
            A2["비협력적 AI<br/>(Non-cooperative AI)"]
        end
        subgraph HUMAN["인간 파트너 조건"]
            H1["협력적 인간<br/>(Cooperative Human)"]
            H2["비협력적 인간<br/>(Non-cooperative Human)"]
        end
    end

    subgraph TRIAL["각 Trial의 3단계 구조"]
        T1["1단계: 제안<br/>(Proposal)<br/>협력 vs. 배반 제안"] --> T2["2단계: 약속<br/>(Commitment)<br/>상대 제안 확인 후 약속"]
        T2 --> T3["3단계: 결정<br/>(Decision)<br/>최종 협력 vs. 배반 선택"]
    end

    DESIGN --> TRIAL
    TRIAL --> |"6 trials 반복"| DV["종속 변수 측정<br/>- 협력 제안률<br/>- 약속 이행률<br/>- 협력 결정률"]

    style DESIGN fill:#e1f5fe
    style TRIAL fill:#fff9c4
    style DV fill:#e8f5e9
    style AI fill:#bbdefb
    style HUMAN fill:#c8e6c9

Results


  • 첫 번째 trial 협력률: 파트너(AI 또는 인간)가 첫 trial에서 협력을 제안했을 때, 참가자의 **80%~90%**가 협력을 선택 — 파트너 유형(AI vs. 인간)에 따른 유의미한 차이 없음
  • 약속 이행률: 협력을 약속한 참가자 중 75% 이상이 실제로 약속을 이행하고 협력을 결정 — AI 파트너와 인간 파트너 조건 간 유사한 수준
  • 반복 trial에서의 협력 유지: 파트너가 지속적으로 협력을 제안하고 약속을 이행한 조건에서, 참가자의 **60%~80%**가 trial 전반에 걸쳐 협력을 제안, 약속, 실행 — 협력적 인간 파트너와 협력적 AI 파트너 간 유의미한 차이 없음
  • 비협력적 파트너 조건: 비협력적 파트너와의 상호작용에서는 참가자의 협력률이 급격히 하락 — AI와 인간 조건 모두에서 동일한 패턴
  • 규범적 동등성(Normative Equivalence): 참가자의 행동은 파트너의 정체성(AI vs. 인간)이 아닌 파트너의 **행동 패턴(cooperative vs. non-cooperative)**에 의해 결정됨 — 인간-AI 혼합 집단과 인간-인간 집단에서 협력 메커니즘이 동일하게 작동

핵심 결과 요약

측정 변수협력적 AI협력적 인간비협력적 AI비협력적 인간
첫 trial 협력률80–90%80–90%낮음낮음
약속 이행률>75%>75%N/AN/A
반복 trial 협력 유지60–80%60–80%급격히 하락급격히 하락

파트너 유형별 협력 패턴

파트너 전략핵심 발견AI vs. 인간 차이
협력적 (Cooperative)높은 협력률 유지 (60–80%)유의미한 차이 없음
비협력적 (Non-cooperative)협력률 급격 하락유의미한 차이 없음

Discussion


  • 핵심 발견 — 규범적 동등성: 인간은 의사소통 가능한 AI 파트너와 인간 파트너에 대해 동일한 협력 규범을 적용 — 이는 CASA 패러다임의 확장으로, 단순한 사회적 반응(social response)을 넘어 전략적 의사결정(strategic decision-making)에서도 AI를 사회적 행위자로 대우함을 시사
  • 한계 1 — 실험적 통제 환경: 실험실 환경에서의 프로그래밍된 AI 파트너는 실제 대화형 AI 시스템(예: LLM 기반 챗봇)과 상이할 수 있음 — 보다 자연스러운 의사소통 능력을 갖춘 AI와의 상호작용에서 동일한 결과가 재현되는지 추가 검증 필요
  • 한계 2 — 짧은 상호작용 기간: 6 trial의 비교적 짧은 반복 상호작용만 검증 — 장기적(longitudinal) 상호작용에서 신뢰(trust) 형성 및 붕괴(breakdown) 패턴이 달라질 가능성
  • 한계 3 — 파트너 전략의 고정성: 파트너의 전략이 완전 협력 또는 완전 비협력으로 고정 — 실제 상호작용에서는 tit-for-tat, 조건부 협력 등 다양한 전략이 존재하므로 이를 반영한 후속 연구 필요
  • 한계 4 — 문화적 맥락의 제한: 단일 문화권에서의 실험 결과이므로, 개인주의 vs. 집단주의 문화에 따른 인간-AI 협력 패턴의 차이를 탐구하는 비교문화 연구가 요구됨
  • 이론적 기여: 죄수의 딜레마 맥락에서 인간-AI 협력이 인간-인간 협력과 동일한 규범적 논리를 따른다는 실증적 증거 — 의사소통(communication)과 약속(commitment)이 파트너의 정체성보다 협력 행동을 더 강하게 예측
  • 향후 방향 1: LLM 기반 대화형 AI(예: ChatGPT)와의 자연어 의사소통이 포함된 사회적 딜레마 실험으로 외적 타당도(ecological validity) 확장
  • 향후 방향 2: AI의 투명성(transparency)과 협력 효율성의 트레이드오프 — AI 정체 공개 여부에 따른 협력률 변화 검증
  • 향후 방향 3: 인간-AI 혼합 집단(mixed group)에서의 다자간 사회적 딜레마(multi-player social dilemma) 연구로 확장 — 2인 게임을 넘어 공공재 게임(public goods game) 등에서의 협력 패턴 탐구