본문으로 건너뛰기
Juhyeon's Blog
Search
검색
다크 모드
라이트 모드
탐색기
Home
❯
AI
❯
Papers
❯
UNLABELED
폴더: AI/Papers/UNLABELED
133건의 항목
2026년 2월 11일
A Computable Game-Theoretic Framework for Multi-Agent Theory of Mind
2026년 2월 11일
A Disproof of Large Language Model Consciousness - The Necessity of Continual Learning for Consciousness
2026년 2월 11일
A Survey of Theory of Mind in Large Language Models - Evaluations Representations and Safety Risks
2026년 2월 11일
A Systematic Review on the Evaluation of Large Language Models in Theory of Mind Tasks
2026년 2월 11일
A Theoretical Understanding of Self-Correction through In-Context Alignment
2026년 2월 11일
AI LLM Proof of Self-Consciousness and User-Specific Attractors
2026년 2월 11일
Activation Oracles - Training and Evaluating LLMs as General-Purpose Activation Explainers
2026년 2월 11일
Adaptive Retrieval Without Self-Knowledge - Bringing Uncertainty Back Home
2026년 2월 11일
Agent-to-Agent Theory of Mind - Testing Interlocutor Awareness among Large Language Models
2026년 2월 11일
Agentic Knowledgeable Self-awareness
2026년 2월 11일
Annotation-Efficient Universal Honesty Alignment for LLMs
2026년 2월 11일
Aware First Think Less - Dynamic Boundary Self-Awareness Drives Extreme Reasoning Efficiency in LLMs
2026년 2월 11일
Bayesian Mixture-of-Experts - Towards Making LLMs Know What They Dont Know
2026년 2월 11일
Belief in the Machine - Investigating Epistemological Blind Spots of Language Models
2026년 2월 11일
Benchmark Self-Evolving - A Multi-Agent Framework for Dynamic LLM Evaluation
2026년 2월 11일
Bottom-up Policy Optimization - Your Language Model Policy Secretly Contains Internal Policies
2026년 2월 11일
Calibrating Verbal Uncertainty as a Linear Feature to Reduce Hallucinations
2026년 2월 11일
Can AI Assistants Know What They Dont Know
2026년 2월 11일
Can Consciousness Be Observed from LLM Internal States
2026년 2월 11일
Can LLMs Express Their Uncertainty - An Empirical Evaluation of Confidence Elicitation in LLMs
2026년 2월 11일
Can LLMs Lie - Investigation beyond Hallucination
2026년 2월 11일
Can LLMs Predict Their Own Failures - Self-Awareness via Internal Circuits
2026년 2월 11일
Causal Reflection with Language Models
2026년 2월 11일
CoRE - Enhancing Metacognition with Label-free Self-evaluation in LRMs
2026년 2월 11일
CogToM - A Comprehensive Theory of Mind Benchmark inspired by Human Cognition
2026년 2월 11일
Cognitive Dissonance - Why Do Language Model Outputs Disagree with Internal Representations of Truthfulness
2026년 2월 11일
Deception in LLMs - Self-Preservation and Autonomous Goals in Large Language Models
2026년 2월 11일
Decompose-ToM - Enhancing Theory of Mind Reasoning in Large Language Models through Simulation and Task Decomposition
2026년 2월 11일
Decomposing LLM Self-Correction - The Accuracy-Correction Paradox and Error Depth Hypothesis
2026년 2월 11일
Defend LLMs Through Self-Consciousness
2026년 2월 11일
Depth Gives a False Sense of Privacy - LLM Internal States Inversion
2026년 2월 11일
Do I Know This Entity - Knowledge Awareness and Hallucinations in Language Models
2026년 2월 11일
Do LVLMs Know What They Know - A Systematic Study of Knowledge Boundary Perception
2026년 2월 11일
Do Large Language Models Know What They Are Capable Of
2026년 2월 11일
Do Retrieval Augmented Language Models Know When They Dont Know
2026년 2월 11일
Dyna-Think - Synergizing Reasoning Acting and World Model Simulation in AI Agents
2026년 2월 11일
Efficient Test-Time Scaling of Multi-Step Reasoning by Probing Internal States of LLMs
2026년 2월 11일
Emergence of Self-Awareness in Artificial Systems - A Minimalist Three-Layer Approach
2026년 2월 11일
Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling
2026년 2월 11일
Epistemic AI is Essential for ML Models to Truly Know When They Dont Know
2026년 2월 11일
Evidence for Limited Metacognition in LLMs
2026년 2월 11일
Explicit Abstention Knobs for Predictable Reliability in Video Question Answering
2026년 2월 11일
Exploration Through Introspection - A Self-Aware Reward Model
2026년 2월 11일
Fact-Level Confidence Calibration and Self-Correction
2026년 2월 11일
Factual Self-Awareness in Language Models - Representation, Robustness, and Scaling
2026년 2월 11일
Feeling the Strength but Not the Source - Partial Introspection in LLMs
2026년 2월 11일
From Black Boxes to Transparent Minds - Evaluating and Enhancing the Theory of Mind in Multimodal Large Language Models
2026년 2월 11일
How Can We Know When Language Models Know - On the Calibration of Language Models for Question Answering
2026년 2월 11일
How do language models learn facts - Dynamics curricula and hallucinations
2026년 2월 11일
How large language models encode theory-of-mind - a study on sparse parameter patterns
2026년 2월 11일
Humanoid Artificial Consciousness Designed with LLM Based on Psychoanalysis and Personality Theory
2026년 2월 11일
Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models
2026년 2월 11일
Hypothetical Minds - Scaffolding Theory of Mind for Multi-Agent Tasks
2026년 2월 11일
If an LLM Were a Character Would It Know Its Own Story - Evaluating Lifelong Learning in LLMs
2026년 2월 11일
Improving Reasoning Performance in Large Language Models via Representation Engineering
2026년 2월 11일
Internal Consistency and Self-Feedback in Large Language Models - A Survey
2026년 2월 11일
Is Self-knowledge and Action Consistent or Not - Investigating Large Language Models Personality
2026년 2월 11일
JULI - Jailbreak Large Language Models by Self-Introspection
2026년 2월 11일
Know Your Limits - A Survey of Abstention in Large Language Models
2026년 2월 11일
KnowRL - Teaching Language Models to Know What They Know
2026년 2월 11일
Knowing What LLMs DO NOT Know - A Simple Yet Effective Self-Detection Method
2026년 2월 11일
LACIE - Listener-Aware Finetuning for Confidence Calibration in Large Language Models
2026년 2월 11일
LLM Theory of Mind and Alignment - Opportunities and Risks
2026년 2월 11일
LLMs Position Themselves as More Rational Than Humans - Emergence of AI Self-Awareness Measured Through Game Theory
2026년 2월 11일
LaMsS - When Large Language Models Meet Self-Skepticism
2026년 2월 11일
Language Models Fail to Introspect About Their Knowledge of Language
2026년 2월 11일
Large Language Models Do NOT Really Know What They Dont Know
2026년 2월 11일
Large Language Models Have Intrinsic Meta-Cognition but Need a Good Lens
2026년 2월 11일
Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection
2026년 2월 11일
Large Model Strategic Thinking, Small Model Efficiency - Transferring Theory of Mind in LLMs
2026년 2월 11일
Learning to Trust Your Feelings - Leveraging Self-awareness in LLMs for Hallucination Mitigation
2026년 2월 11일
Line of Duty - Evaluating LLM Self-Knowledge via Consistency in Feasibility Boundaries
2026년 2월 11일
MENTOR - A Metacognition-Driven Self-Evolution Framework for Uncovering and Mitigating Implicit Domain Risks in LLMs
2026년 2월 11일
MOMENTS - A Comprehensive Multimodal Benchmark for Theory of Mind
2026년 2월 11일
MUSE - Competence-Aware AI Agents with Metacognition for Unknown Situations and Environments
2026년 2월 11일
Me, Myself, and AI - The Situational Awareness Dataset for LLMs
2026년 2월 11일
MetaMind - Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems
2026년 2월 11일
Metacognitive Reuse - Turning Recurring LLM Reasoning Into Concise Behaviors
2026년 2월 11일
MuMA-ToM - Multi-modal Multi-Agent Theory of Mind
2026년 2월 11일
Multi-ToM - Evaluating Multilingual Theory of Mind Capabilities in Large Language Models
2026년 2월 11일
NegotiationToM - A Benchmark for Stress-testing Machine Theory of Mind
2026년 2월 11일
NeuroFaith - Evaluating LLM Self-Explanation Faithfulness via Internal Representation Alignment
2026년 2월 11일
ObjexMT - Objective Extraction and Metacognitive Calibration for LLM-as-a-Judge
2026년 2월 11일
On Verbalized Confidence Scores for LLMs
2026년 2월 11일
OpenToM - A Comprehensive Benchmark for Evaluating Theory-of-Mind Reasoning
2026년 2월 11일
Overcoming Multi-step Complexity in Multimodal Theory-of-Mind Reasoning - A Scalable Bayesian Planner
2026년 2월 11일
Pangu Embedded - An Efficient Dual-system LLM Reasoner with Metacognition
2026년 2월 11일
PolicyEvol-Agent - Evolving Policy via Environment Perception and Self-Awareness with ToM
2026년 2월 11일
Position - Theory of Mind Benchmarks are Broken for Large Language Models
2026년 2월 11일
Position - Truly Self-Improving Agents Require Intrinsic Metacognitive Learning
2026년 2월 11일
Principles for Responsible AI Consciousness Research
2026년 2월 11일
Probe-Rewrite-Evaluate - Quantifying Evaluation Awareness in LLMs
2026년 2월 11일
Program-Aided Reasoners (better) Know What They Know
2026년 2월 11일
Quantifying Self-Awareness of Knowledge in Large Language Models
2026년 2월 11일
RECURSIVE INTROSPECTION - Teaching Language Model Agents How to Self-Improve
2026년 2월 11일
Re-evaluating Theory of Mind evaluation in large language models
2026년 2월 11일
Reflection-Bench - Evaluating Epistemic Agency in Large Language Models
2026년 2월 11일
Reflective Confidence - Correcting Reasoning Flaws via Online Self-Correction
2026년 2월 11일
SaySelf - Teaching LLMs to Express Confidence with Self-Reflective Rationales
2026년 2월 11일
Self-Aware Knowledge Probing - Evaluating Language Models Relational Knowledge through Confidence Calibration
2026년 2월 11일
Self-Evaluating LLMs for Multi-Step Tasks - Stepwise Confidence Estimation for Failure Detection
2026년 2월 11일
Self-Interpretability - LLMs Can Describe Complex Internal Processes that Drive Their Decisions
2026년 2월 11일
Self-Recognition in Language Models
2026년 2월 11일
Self-reflecting Large Language Models - A Hegelian Dialectical Approach
2026년 2월 11일
Self-reflection enhances large language models towards substantial academic response
2026년 2월 11일
SelfControl of LLM Behaviors by Compressing Suffix Gradient into Prefix Controller
2026년 2월 11일
Sensorimotor features of self-awareness in multimodal large language models
2026년 2월 11일
Surgical Cheap and Flexible - Mitigating False Refusal in Language Models via Single Vector Ablation
2026년 2월 11일
Taking AI Welfare Seriously
2026년 2월 11일
Teaching LLMs to Abstain across Languages via Multilingual Feedback
2026년 2월 11일
Tell Me About Yourself - LLMs Are Aware of Their Learned Behaviors
2026년 2월 11일
Testing theory of mind in large language models and humans
2026년 2월 11일
The AI in the Mirror - LLM Self-Recognition in an Iterated Public Goods Game
2026년 2월 11일
The Confidence Paradox - LLMs Can Know When They Are Wrong
2026년 2월 11일
The Geometry of Truth - Emergent Linear Structure in LLM Representations of True and False Statements
2026년 2월 11일
The Phenomenology of Machine - Sentience Analysis of OpenAI-o1 Model
2026년 2월 11일
The Self-Execution Benchmark - Measuring LLMs Attempts to Overcome Their Lack of Self-Execution
2026년 2월 11일
Theory of Mind Abilities of Large Language Models in Human-Robot Interaction - An Illusion
2026년 2월 11일
Thinking Faithful and Stable - Mitigating Hallucinations in LLMs via Internal Consistency
2026년 2월 11일
TimeToM - Temporal Space is the Key to Unlocking LLMs Theory-of-Mind
2026년 2월 11일
To Know or Not To Know - Analyzing Self-Consistency of Large Language Models under Ambiguity
2026년 2월 11일
ToM-LM - Delegating Theory of Mind Reasoning to External Symbolic Executors in Large Language Models
2026년 2월 11일
ToMATO - Verbalizing the Mental States of Role-Playing LLMs for Benchmarking Theory of Mind
2026년 2월 11일
Towards Agents That Know When They Dont Know - Uncertainty as Control Signal
2026년 2월 11일
Towards Fully Exploiting LLM Internal States to Enhance Knowledge Boundary Perception
2026년 2월 11일
Towards Understanding Metacognition in Large Reasoning Models
2026년 2월 11일
Training Language Models to Self-Correct via Reinforcement Learning
2026년 2월 11일
Trustworthiness and Self-awareness in Large Language Models - Think-Solve-Verify Framework
2026년 2월 11일
Uncertainty-Based Abstention in LLMs Improves Safety
2026년 2월 11일
UniCR - Unified Framework for Confidence Calibration and Risk-Controlled Refusal in LLMs
2026년 2월 11일
Unlabeled
2026년 2월 11일
When Models Know When They Do Not Know - Calibration Cascading and Cleaning
2026년 2월 11일
Why and How LLMs Benefit from Knowledge Introspection in Commonsense Reasoning