정보통신기술의 발전으로 인공지능 에이전트의 상호작용이 증가하면서 이용자들은 각종 온라인, 모바일 서비스를 이용하고 인공지능 에이전트에게 개인정보를 공개하고 있다. 본 연구는 이용자들이 인공지능 에이전트를 개인정보 공개 대상으로서 어떻게 신뢰하고, 개인정보를 공개하는가를 탐색하고자 진행되었다. 연구1은 인터뷰 방법을 통해 개인정보 공개 대상으로서 인공지능 에이전트 신뢰에 영향을 미치는 요인을 이용자 차원, 인공지능 에이전트 차원, 이용 환경 차원으로 나누어 살펴보았으며, 연구 결과를 바탕으로 신뢰 모델 프레임워크를 제안하였다. 인공지능 에이전트 특성은 유능함과 따뜻함으로 구분되었으며, 유능함에는 기술적 보안성, 정확성, 객관성, 통제성, 개발사 평판이, 따뜻함에는 심리적 보안성, 정직함, 편안함, 친절함, 책임성이 포함되었다. 이용자 차원에는 인공지능 지식, 기계 고정관념, 프라이버시 염려 등의 기술 관련 개인 특성과 외로움, 신뢰 성향의 대인 관계 관련 개인 특성이 포함되었다. 이용 환경 차원으로는 개인정보 유형, 제공 방식 등의 상황적 특성과 법적 규제, 보안 절차와 같은 제도적 특성이 나타났다. 연구2는 설문 방법을 적용하여 연구1에서 나타난 인공지능 에이전트 특성과 이용자 특성이 개인정보 공개 상황에서 인공지능 에이전트 신뢰 지각에 미치는 영향을 검증하였다. 탐색적 요인분석 결과 인공지능 에이전트 특성은 유능함 차원에서 유능성, 기술적 보안성, 개발사 평판이 추출되었고, 따뜻함 차원에서 심리적 보안성, 책임성, 편안함이 추출되었다. 회귀 분석 결과 인공지능 에이전트 특성 중 기술적 보안성이 가장 큰 영향을 미쳤으며, 유능성과 개발사 평판 또한 대상에 대한 신뢰 인식에 유의미한 영향을 미쳤다. 따뜻함 차원에서는 심리적 보안성만이 대상에 대한 신뢰에 영향을 미치는 것으로 나타났다. 이용자 특성에서는 기계 고정관념, 프라이버시 염려, 신뢰 성향이 인공지능 에이전트 신뢰 인식에 유의미한 영향을 미쳤다. 마지막으로 연구3은 실험 연구 방법을 이용하여 구체적인 개인정보 공개 상황을 조작하고 제공해야 하는 개인정보 유형과 인공지능 에이전트의 특성에 따른 신뢰 인식과 개인정보 공개 행동의 차이를 밝혔다. 인구통계 정보 제공을 요청받았을 때 사람들은 인공지능 에이전트 특성에 따라 신뢰 인식이나 개인정보 공개 의도에 차이를 보이지 않았으나, 디지털 발자취 정보를 제공해야 할 때 사람들은 기술적 보안성이 강조된 에이전트를 심리적 보안성이 강조된 에이전트보다 더 신뢰하였고, 개인정보 공개 의도도 더 높게 나타났다. 그러나 실제 개인정보 공개 양에 대한 추가적인 분석을 진행한 결과 개인정보 유형이나 인공지능 에이전트 특성에 따른 차이는 통계적으로 유의미하지 않았다. 본 연구는 새롭게 등장한 개인정보 공개 대상으로서 인공지능 에이전트 신뢰에 대한 학문적 이해를 높이고, 향후 신뢰할 수 있는 인공지능의 발전 방향성을 제안했다는 점에서 실무적 의의 또한 있다.
The interaction between AI agents and individuals increases with the advancement of information and communication technology. Accordingly, individuals are increasingly disclosing personal information to AI agents while using various online and mobile services. Nevertheless, limited research has examined how users perceive privacy issues and disclose their personal information in situations involving AI agents. This study aims to investigate the trust in AI agents in the context of privacy-disclosure situations and to understand how users behave when disclosing personal information. In Study 1, the factors affecting trust in AI agents for personal information disclosure were examined from three dimensions: the AI agent, user, and environmental dimension. The results based on in-depth interview in study 1 suggested a trust model framework. AI agent characteristics were divided into competence and warmth, with technical security, accuracy, objectivity, controllability, and developer reputation included in competence, and psychological security, honesty, comfort, kindness, and responsibility included in warmth. The user dimension included characteristics related to technology use such as AI knowledge, machine stereotypes, and privacy concerns, and characteristics related to personal relationship such as loneliness and trust propensity. The usage environment dimension included situational characteristics such as personal information type and communication modality and institutional characteristics such as legal regulations. Study 2 investigated theeffects of AI agent and user characteristics on perceived trust toward AI agent. An online survey was conducted, and exploratory factor analysis identified competence, technical security, and developer reputation from AI agent characteristics in the competence dimension, while psychological security, responsibility, and comfort were identified in the warmth dimension. Regression analysis showed that technical security had the strongest impact on perceived trust, and competence and developer reputation also had a significant impact on perceived trust. Only psychological security in the warmth dimension was found to affect perceived trust toward AI agent. Among user characteristics, machine stereotypes, privacy concerns, and trust propensity had a significant impact on perceived trust of AI agent. Finally, Study 3 used an experimental method to manipulate specific personal information disclosure situations. A 2 (AI characteristics: technical security vs. psychological security) × (type of personal information: demographics vs. digital footprint) between-subjects design was employed. The results revealed that individuals trusted AI agent with technical security (vs. psychological security) more when they requested digital footprint information and had more intention to provide personal information to AI agent. However, there were no differences depending on AI characteristics for demographics information. According to the results of additional analysis on personal information disclosure behavior, there were no significant differences depending on AI agent characteristics or type of personal information. This research has theoretical implications in that it enhances the understanding of trust to AI agent in context of privacy-disclosure and discusses practical implications of proposing future directions for the development of trustworthy AI.