Introduction
- Hallucination은 LLM의 주요 과제
- 인간의 회의적 사고(skeptical thinking)가 LLM의 self-cognition, self-reflection에 유용할 수 있음
- LLM의 semantic understanding 능력과 self-skepticism을 결합하는 접근
- LLM hallucination 연구
- Confidence calibration 및 abstention 연구
- Self-aware LLM 연구
Methods
- Skepticism token을 새로 도입하고 vocabulary에 추가
- Pretraining과 finetuning을 통해 각 normal token 뒤에 skepticism token 디코딩
- 각 skepticism token은 다른 skepticism level을 나타냄
- Query에 대한 response skepticism을 계산하여 threshold 기반 응답 결정
Results
- Multi-choice question과 open-domain QA 벤치마크에서 baseline 대비 우수한 accuracy, AUC, AP
- Multi-task 및 out-of-domain 설정에서도 일반화 가능
Discussion
- Self-skepticism 모델링이 AI 발전에 시사점 제공
- Token-level skepticism이라는 새로운 접근
- 한계점: vocabulary 확장 필요, 추가 학습 비용