When communicative AIs are cooperative actors - a prisoner's dilemma experiment on human-communicative artificial intelligence cooperation
13분 분량
Introduction
AI 시스템이 점점 더 인간과 유사한 의사소통 능력(communicative capability)을 갖추면서, 인간-AI 간 협력(cooperation)의 가능성에 대한 실증적 검증이 필요 — 특히 사회적 딜레마(social dilemma) 상황에서 인간이 AI를 협력 파트너로 인식하는지가 핵심 질문
**죄수의 딜레마(Prisoner’s Dilemma)**는 두 행위자가 협력(cooperation)과 배반(defection) 사이에서 선택하는 고전적 게임 이론 패러다임으로, 인간 간 협력 연구의 표준 도구이며, 이를 인간-AI 상호작용에 확장 적용
CASA(Computers Are Social Actors) 패러다임(Nass & Moon, 2000)에 따르면, 인간은 컴퓨터에 사회적 규칙을 무의식적으로(mindlessly) 적용하는 경향이 있으나, 이것이 의사소통 가능한 AI와의 전략적 상호작용에서도 동일하게 적용되는지는 충분히 검증되지 않음
기존 연구(Kiesler et al., 1996)에서는 텍스트 기반 컴퓨터와의 약속 이행 행동이 인간 파트너와 유사하다는 결과를 보고하였으나, 현대의 대화형 AI(communicative AI)로 확장한 연구는 부족
본 연구는 의사소통 가능한 AI가 협력을 제안(propose)하고 약속(promise)할 때, 인간 참가자가 인간 파트너와 동일한 수준으로 협력하는지를 2 x 2 피험자 간(between-subjects) 실험 설계로 검증
Related Papers
A Prisoner’s Dilemma Experiment on Cooperation with People and Human-Like Computers (Kiesler, Sproull & Waters, 1996): 최초로 인간 vs. 컴퓨터 파트너와의 죄수의 딜레마 실험을 수행 — 텍스트 기반 컴퓨터와의 약속 이행률이 인간과 유사했으나, 인간형 컴퓨터에서는 약속 이행이 감소하는 역설적 결과를 보고하여 본 연구의 직접적 선행 연구
Computers Are Social Actors (CASA paradigm) (Nass, Steuer & Tauber, 1994; Nass & Moon, 2000): 인간이 컴퓨터에 사회적 규범(politeness, reciprocity, gender stereotypes)을 무의식적으로 적용함을 실증 — 본 연구에서 AI 파트너에 대한 협력 행동의 이론적 기반 제공
Cooperating with Machines (Crandall, Oudah, Tennom et al., 2018): 강화학습 기반 알고리즘이 반복적 게임에서 인간 수준의 협력을 이끌어낼 수 있음을 보고 — 그러나 의사소통(communication) 요소의 역할은 충분히 탐구하지 않음
Behavioural Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation (Ishowo-Oloko et al., 2019): 봇이 인간보다 협력을 더 잘 유도하지만, 봇임을 공개하면 이 이점이 사라짐 — 투명성(transparency)과 협력 효율성 간의 트레이드오프를 실증하여 본 연구의 AI 파트너 정체성 공개 조건과 관련
Communication and Cooperation in Prisoner’s Dilemma Games (Bahel, Ball & Sarangi, 2022): 죄수의 딜레마에서 의사소통 빈도가 높을수록 협력률이 유의미하게 증가함을 보고 — 본 연구에서 의사소통 가능한 AI의 제안(proposal)과 약속(commitment)이 협력을 촉진하는 메커니즘과 직결
Methods
실험 설계: 2 (파트너 유형: AI vs. 인간) x 2 (파트너 전략: 협력적(cooperative) vs. 비협력적(non-cooperative)) 피험자 간(between-subjects) 설계, 총 6 trial 반복
참가자: 4개 실험 조건(협력적 AI, 비협력적 AI, 협력적 인간, 비협력적 인간)에 무선 배정
과제: 고전적 죄수의 딜레마 게임 — 각 trial에서 참가자는 파트너와 컴퓨터 터미널을 통해 상호작용
의사소통 구조: 각 trial은 3단계로 구성
(1) 제안 단계(Proposal Phase): 참가자와 파트너가 각각 협력 또는 배반을 제안
(2) 약속 단계(Commitment Phase): 상대의 제안을 확인한 후 약속(commit) 여부를 결정
(3) 결정 단계(Decision Phase): 최종적으로 협력(cooperate) 또는 배반(defect)을 선택
파트너 조작(Partner Manipulation):
협력적 파트너: 모든 trial에서 협력을 제안하고 약속하며 협력을 실행
비협력적 파트너: 모든 trial에서 배반을 제안하고 약속하지 않으며 배반을 실행
AI 조건: 참가자에게 파트너가 대화형 AI(communicative AI)임을 명시적으로 고지
인간 조건: 참가자에게 파트너가 다른 인간 참가자임을 고지 (실제로는 프로그래밍된 응답)
종속 변수(Dependent Variables): (1) 협력 제안률(cooperative proposal rate), (2) 약속 이행률(commitment rate), (3) 협력 결정률(cooperative decision rate)
분석 방법: 각 trial별 협력 행동 비율 분석, 조건 간 비교
실험 설계 다이어그램
graph TD
subgraph DESIGN["2 x 2 Between-Subjects Design"]
direction TB
subgraph AI["AI 파트너 조건"]
A1["협력적 AI<br/>(Cooperative AI)"]
A2["비협력적 AI<br/>(Non-cooperative AI)"]
end
subgraph HUMAN["인간 파트너 조건"]
H1["협력적 인간<br/>(Cooperative Human)"]
H2["비협력적 인간<br/>(Non-cooperative Human)"]
end
end
subgraph TRIAL["각 Trial의 3단계 구조"]
T1["1단계: 제안<br/>(Proposal)<br/>협력 vs. 배반 제안"] --> T2["2단계: 약속<br/>(Commitment)<br/>상대 제안 확인 후 약속"]
T2 --> T3["3단계: 결정<br/>(Decision)<br/>최종 협력 vs. 배반 선택"]
end
DESIGN --> TRIAL
TRIAL --> |"6 trials 반복"| DV["종속 변수 측정<br/>- 협력 제안률<br/>- 약속 이행률<br/>- 협력 결정률"]
style DESIGN fill:#e1f5fe
style TRIAL fill:#fff9c4
style DV fill:#e8f5e9
style AI fill:#bbdefb
style HUMAN fill:#c8e6c9
Results
첫 번째 trial 협력률: 파트너(AI 또는 인간)가 첫 trial에서 협력을 제안했을 때, 참가자의 **80%~90%**가 협력을 선택 — 파트너 유형(AI vs. 인간)에 따른 유의미한 차이 없음
약속 이행률: 협력을 약속한 참가자 중 75% 이상이 실제로 약속을 이행하고 협력을 결정 — AI 파트너와 인간 파트너 조건 간 유사한 수준
반복 trial에서의 협력 유지: 파트너가 지속적으로 협력을 제안하고 약속을 이행한 조건에서, 참가자의 **60%~80%**가 trial 전반에 걸쳐 협력을 제안, 약속, 실행 — 협력적 인간 파트너와 협력적 AI 파트너 간 유의미한 차이 없음
비협력적 파트너 조건: 비협력적 파트너와의 상호작용에서는 참가자의 협력률이 급격히 하락 — AI와 인간 조건 모두에서 동일한 패턴
규범적 동등성(Normative Equivalence): 참가자의 행동은 파트너의 정체성(AI vs. 인간)이 아닌 파트너의 **행동 패턴(cooperative vs. non-cooperative)**에 의해 결정됨 — 인간-AI 혼합 집단과 인간-인간 집단에서 협력 메커니즘이 동일하게 작동
핵심 결과 요약
측정 변수
협력적 AI
협력적 인간
비협력적 AI
비협력적 인간
첫 trial 협력률
80–90%
80–90%
낮음
낮음
약속 이행률
>75%
>75%
N/A
N/A
반복 trial 협력 유지
60–80%
60–80%
급격히 하락
급격히 하락
파트너 유형별 협력 패턴
파트너 전략
핵심 발견
AI vs. 인간 차이
협력적 (Cooperative)
높은 협력률 유지 (60–80%)
유의미한 차이 없음
비협력적 (Non-cooperative)
협력률 급격 하락
유의미한 차이 없음
Discussion
핵심 발견 — 규범적 동등성: 인간은 의사소통 가능한 AI 파트너와 인간 파트너에 대해 동일한 협력 규범을 적용 — 이는 CASA 패러다임의 확장으로, 단순한 사회적 반응(social response)을 넘어 전략적 의사결정(strategic decision-making)에서도 AI를 사회적 행위자로 대우함을 시사
한계 1 — 실험적 통제 환경: 실험실 환경에서의 프로그래밍된 AI 파트너는 실제 대화형 AI 시스템(예: LLM 기반 챗봇)과 상이할 수 있음 — 보다 자연스러운 의사소통 능력을 갖춘 AI와의 상호작용에서 동일한 결과가 재현되는지 추가 검증 필요
한계 2 — 짧은 상호작용 기간: 6 trial의 비교적 짧은 반복 상호작용만 검증 — 장기적(longitudinal) 상호작용에서 신뢰(trust) 형성 및 붕괴(breakdown) 패턴이 달라질 가능성
한계 3 — 파트너 전략의 고정성: 파트너의 전략이 완전 협력 또는 완전 비협력으로 고정 — 실제 상호작용에서는 tit-for-tat, 조건부 협력 등 다양한 전략이 존재하므로 이를 반영한 후속 연구 필요
한계 4 — 문화적 맥락의 제한: 단일 문화권에서의 실험 결과이므로, 개인주의 vs. 집단주의 문화에 따른 인간-AI 협력 패턴의 차이를 탐구하는 비교문화 연구가 요구됨
이론적 기여: 죄수의 딜레마 맥락에서 인간-AI 협력이 인간-인간 협력과 동일한 규범적 논리를 따른다는 실증적 증거 — 의사소통(communication)과 약속(commitment)이 파트너의 정체성보다 협력 행동을 더 강하게 예측
향후 방향 1: LLM 기반 대화형 AI(예: ChatGPT)와의 자연어 의사소통이 포함된 사회적 딜레마 실험으로 외적 타당도(ecological validity) 확장
향후 방향 2: AI의 투명성(transparency)과 협력 효율성의 트레이드오프 — AI 정체 공개 여부에 따른 협력률 변화 검증
향후 방향 3: 인간-AI 혼합 집단(mixed group)에서의 다자간 사회적 딜레마(multi-player social dilemma) 연구로 확장 — 2인 게임을 넘어 공공재 게임(public goods game) 등에서의 협력 패턴 탐구