참여자: University of South Carolina 심리학/언어학 수업 수강생 157명 모집 → 미완료·비네트 핵심 내용 미기억 35명 제외 → 최종 N = 122
실험 설계: 피험자 간(between-subjects) — Agent 조건(n=57) vs Instrument 조건(n=65)
자극 (비네트):
Agent 조건: “Dr. A.I. tried to provide accurate medical advice… Dr. A.I. made an error when it recommended a dangerous home cure…”
Instrument 조건: “Health A.I. captured widespread attention after they created an A.I. language model… a recommendation for a dangerous home cure was generated by Dr A.I.”
핵심 조작: AI를 능동 타동문의 주어(Agent) vs 수동문의 도구(Instrument)로 배치
측정 변인:
책임 평정: AI / 기업 / 환자 각각 1~100 슬라이더 (3개 종속변인)
AI 경험: 1~100 자기보고 (M=19.8, SD=24.6, Median=10, Mode=0)
특성 의인화: IDAQ (Waytz et al., 2010)
회상 과제: 비네트 이해도 확인용 (제외 기준)
분석: R 4.3.0, 누적 링크 회귀 모형(cumulative link regression, ordinal 패키지), AIC 기반 모형 선택
방법론 다이어그램
graph TD
A["참여자 (N=122)"] --> B{"무선 할당"}
B -->|Agent 조건| C["비네트: AI = 주어<br/>'Dr. AI made an error...'"]
B -->|Instrument 조건| D["비네트: AI = 도구<br/>'was generated by Dr AI...'"]
C --> E["책임 평정 (1-100)"]
D --> E
E --> F["AI 책임"]
E --> G["기업 책임"]
E --> H["환자 책임"]
E --> I["AI 경험 자기보고"]
E --> J["IDAQ"]
F --> K["누적 링크 회귀<br/>조건 × AI경험 상호작용"]
style A fill:#e1f5fe
style K fill:#e8f5e9
Results
전체 책임 패턴: 기업 (M=70, SD=23) > AI (M=49, SD=35) > 환자 (M=43, SD=26)
AI 경험과 AI 책임의 부적 상관: r = −0.29, p = 0.001
AI 책임:
AI 경험 주효과: z = −3.68, p < 0.001 (경험 낮을수록 AI에 더 높은 책임)
조건 × AI 경험 상호작용: z = 2.13, p = 0.032 (저경험 참여자: Agent > Instrument; 고경험 참여자: 차이 없음)
조건 주효과: z = −1.86, p = 0.06 (경향성)
IDAQ는 모형 적합도 개선 실패 (p = 0.169)
기업 책임:
조건 주효과: z = −2.01, p = 0.036 (Agent 조건에서 기업 책임↓)
조건 × AI 경험 상호작용: z = 2.42, p = 0.015 (고경험 참여자에서 프레이밍 효과가 더 강함)
환자 책임: 유의미한 효과 없음 (최대 모형에서도 주효과·상호작용 모두 비유의)
효과 크기 안정화: Cox & Snell R² ≈ 0.12, n=122에서 15명 연속 ±0.02 미만 변화로 안정
조건별 AI 책임 평정
그룹
n
M
Median
SD
Agent 조건
57
49.89
50
37.01
Instrument 조건
65
49.14
50
32.66
Q1 (최저 AI 경험)
31
59.64
70
34.44
Q2
31
54.06
50
32.54
Q3
30
49.93
52.5
37.56
Q4 (최고 AI 경험)
30
33.83
36.5
29.67
핵심 통계 요약
종속변인
효과
z
p
AI 책임
AI 경험 주효과
−3.68
< 0.001
AI 책임
조건 × AI 경험
2.13
0.032
기업 책임
조건 주효과
−2.01
0.036
기업 책임
조건 × AI 경험
2.42
0.015
환자 책임
(효과 없음)
—
ns
Discussion
핵심 발견: AI를 행위자(Agent)로 프레이밍하면 저경험 사용자가 AI에 더 높은 책임을 부여하고, 모든 사용자가 기업에 더 낮은 책임을 부여
면역 효과의 비대칭성: AI 경험이 AI 책임 증가에 대해서는 면역 효과를 제공하지만, 기업 책임 감소에 대해서는 오히려 고경험 참여자에서 프레이밍 효과가 더 강함 → 기술적 전문가도 기업 책임 면제에는 취약
IDAQ 무효과: 특성 수준 의인화(trait anthropomorphism)는 상황 특수적 의인화 귀인을 예측하지 못함 — Thellman & Ziemke (2019)의 “존재론적 비구속(ontologically non-committal)” 입장 지지
한계 1: 표본이 주로 1~2학년 대학생(AI 경험 Median=10) — 진정한 고경험자(기술 종사자, 컴퓨터과학자)에 대한 일반화 필요
한계 2: 의료 조언 시나리오 하나만 테스트 — 다른 AI 영역(자율주행, 금융 분석)으로의 일반화 미확인
실천적 함의: AI를 행위자로 묘사하는 언어적 선택이 기업의 법적 책임을 희석시킬 수 있음 → AI 규제 및 기업 책임 논의에서 언어 프레이밍의 영향을 고려해야 함