Introduction


  • 테크 기업들이 AI를 주어(agent) 위치에 놓는 행위자 언어(agentive language)를 빈번히 사용 (예: “Gemini can understand, explain and generate high-quality code”)
  • 심리언어학 연구에서 문법적 은유(grammatical metaphor)가 무생물에 대한 인과적 행위자(causal agent) 인식을 증가시킴이 확인됨 (Fausey & Boroditsky, 2011: 전이 교대에 따른 비난/재정적 책임 변화)
  • 그러나 이 효과가 AI와 AI 제작 기업에 대한 책임 귀인(responsibility assignment)에 어떻게 영향을 미치는지는 미탐구
  • 핵심 가설: (1) AI 경험이 낮은 참여자가 AI에 더 높은 책임을 부여, (2) AI를 행위자로 프레이밍하면 AI 책임↑ / 기업 책임↓, (3) AI 경험이 낮은 참여자가 프레이밍 효과에 더 취약 (면역 가설, inoculation hypothesis)
  • 이론적 기반: Epley et al. (2007)의 의인화 3요인 이론 + Dennett (1987)의 의도적 입장(intentional stance) — 도메인 경험이 의인화를 감소시킴

Related Papers


  • Fausey & Boroditsky (2010, 2011): 행위자 언어 프레이밍이 사고 기억과 비난/재정 책임에 미치는 영향 — 본 연구의 직접적 선행 연구
  • Epley, Waytz & Cacioppo (2007): 의인화 3요인 이론 — 예측 불가능한 개체에 대해 행위자 프레임워크 채택; 도메인 경험이 의인화를 감소시킨다고 예측
  • Kopp et al. (2022, 2023): 공장 노동자는 의인화적 기술에 로봇을 더 인간적으로 인식(2022), 기술 학생은 그렇지 않음(2023) — 도메인 경험 면역 효과의 예비 증거
  • Weizenbaum (1966): ELIZA 챗봇 — 사람들이 챗봇의 능력을 과대평가하는 ELIZA Effect 최초 관찰
  • McGlynn & McGlone (2019): 문법적 은유가 비만(obesity)에 대한 책임 귀인을 증가시킴

Methods


  • 참여자: University of South Carolina 심리학/언어학 수업 수강생 157명 모집 → 미완료·비네트 핵심 내용 미기억 35명 제외 → 최종 N = 122
  • 실험 설계: 피험자 간(between-subjects) — Agent 조건(n=57) vs Instrument 조건(n=65)
  • 자극 (비네트):
    • Agent 조건: “Dr. A.I. tried to provide accurate medical advice… Dr. A.I. made an error when it recommended a dangerous home cure…”
    • Instrument 조건: “Health A.I. captured widespread attention after they created an A.I. language model… a recommendation for a dangerous home cure was generated by Dr A.I.”
    • 핵심 조작: AI를 능동 타동문의 주어(Agent) vs 수동문의 도구(Instrument)로 배치
  • 측정 변인:
    • 책임 평정: AI / 기업 / 환자 각각 1~100 슬라이더 (3개 종속변인)
    • AI 경험: 1~100 자기보고 (M=19.8, SD=24.6, Median=10, Mode=0)
    • 특성 의인화: IDAQ (Waytz et al., 2010)
    • 회상 과제: 비네트 이해도 확인용 (제외 기준)
  • 분석: R 4.3.0, 누적 링크 회귀 모형(cumulative link regression, ordinal 패키지), AIC 기반 모형 선택

방법론 다이어그램

graph TD
    A["참여자 (N=122)"] --> B{"무선 할당"}
    B -->|Agent 조건| C["비네트: AI = 주어<br/>'Dr. AI made an error...'"]
    B -->|Instrument 조건| D["비네트: AI = 도구<br/>'was generated by Dr AI...'"]
    C --> E["책임 평정 (1-100)"]
    D --> E
    E --> F["AI 책임"]
    E --> G["기업 책임"]
    E --> H["환자 책임"]
    E --> I["AI 경험 자기보고"]
    E --> J["IDAQ"]

    F --> K["누적 링크 회귀<br/>조건 × AI경험 상호작용"]

    style A fill:#e1f5fe
    style K fill:#e8f5e9

Results


  • 전체 책임 패턴: 기업 (M=70, SD=23) > AI (M=49, SD=35) > 환자 (M=43, SD=26)
  • AI 경험과 AI 책임의 부적 상관: r = −0.29, p = 0.001
  • AI 책임:
    • AI 경험 주효과: z = −3.68, p < 0.001 (경험 낮을수록 AI에 더 높은 책임)
    • 조건 × AI 경험 상호작용: z = 2.13, p = 0.032 (저경험 참여자: Agent > Instrument; 고경험 참여자: 차이 없음)
    • 조건 주효과: z = −1.86, p = 0.06 (경향성)
    • IDAQ는 모형 적합도 개선 실패 (p = 0.169)
  • 기업 책임:
    • 조건 주효과: z = −2.01, p = 0.036 (Agent 조건에서 기업 책임↓)
    • 조건 × AI 경험 상호작용: z = 2.42, p = 0.015 (고경험 참여자에서 프레이밍 효과가 더 강함)
  • 환자 책임: 유의미한 효과 없음 (최대 모형에서도 주효과·상호작용 모두 비유의)
  • 효과 크기 안정화: Cox & Snell R² ≈ 0.12, n=122에서 15명 연속 ±0.02 미만 변화로 안정

조건별 AI 책임 평정

그룹nMMedianSD
Agent 조건5749.895037.01
Instrument 조건6549.145032.66
Q1 (최저 AI 경험)3159.647034.44
Q23154.065032.54
Q33049.9352.537.56
Q4 (최고 AI 경험)3033.8336.529.67

핵심 통계 요약

종속변인효과zp
AI 책임AI 경험 주효과−3.68< 0.001
AI 책임조건 × AI 경험2.130.032
기업 책임조건 주효과−2.010.036
기업 책임조건 × AI 경험2.420.015
환자 책임(효과 없음)ns

Discussion


  • 핵심 발견: AI를 행위자(Agent)로 프레이밍하면 저경험 사용자가 AI에 더 높은 책임을 부여하고, 모든 사용자가 기업에 더 낮은 책임을 부여
  • 면역 효과의 비대칭성: AI 경험이 AI 책임 증가에 대해서는 면역 효과를 제공하지만, 기업 책임 감소에 대해서는 오히려 고경험 참여자에서 프레이밍 효과가 더 강함 → 기술적 전문가도 기업 책임 면제에는 취약
  • IDAQ 무효과: 특성 수준 의인화(trait anthropomorphism)는 상황 특수적 의인화 귀인을 예측하지 못함 — Thellman & Ziemke (2019)의 “존재론적 비구속(ontologically non-committal)” 입장 지지
  • 한계 1: 표본이 주로 1~2학년 대학생(AI 경험 Median=10) — 진정한 고경험자(기술 종사자, 컴퓨터과학자)에 대한 일반화 필요
  • 한계 2: 의료 조언 시나리오 하나만 테스트 — 다른 AI 영역(자율주행, 금융 분석)으로의 일반화 미확인
  • 실천적 함의: AI를 행위자로 묘사하는 언어적 선택이 기업의 법적 책임을 희석시킬 수 있음 → AI 규제 및 기업 책임 논의에서 언어 프레이밍의 영향을 고려해야 함