Key Points
- “사람보다 챗GPT가 더 다정”…위로의 대화 상대로 떠오르는 AI 챗 로봇
- AI 심리상담 프롬프트 ’Character.AI’… Z세대의 ‘디지털 친구’가 된 챗봇들
- 비난도, 판단도 없는 대화…사람들은 AI에 더 쉽게 마음을 연다
- 전문가들, AI 의존의 위험성 경고…감정적 안정은 보완이지 대체 될 수 없어
최근 AI가 단순한 기술을 넘어, 사람들의 심리적 안정을 돕는 역할을 하고 있다는 사실, 알고 계셨나요?
누군가에게 털어놓고 싶을 만큼 힘들고 지칠 때, 그저 내 얘기를 들어줄 대화 상대가 필요할 때, 요즘은 AI가 그 자리를 대신해주고 있습니다.
‘다정한 AI’는 과연 우리의 감정을 어떻게 이해하고, 또 어떤 방식으로 위로를 건넬 수 있을까요?
전문가들은 그러나 AI 의존이 인간관계에 미치는 부정적 영향을 경고하며, 진정한 위로는 여전히 사람과 사람 사이에서 비롯된다고 강조합니다.
오늘은 AI 챗봇이 우리 심리에 미치는 영향부터, 특히 Z세대가 AI를 어떤 존재로 받아들이고 있는지, 그 정서적 연결의 새로운 형태에 대해 이야기 나눠보겠습니다.
컬처인 유화정 프로듀서 함께합니다.
나혜인 PD: 요즘 AI랑 대화하는 영상이 유튜브에서 자주 보이는데, 실제로 챗 GPT와 같은 AI와 대화하는 사람들이 점점 많아지고 있다면서요?
유화정 PD: 맞아요. 최근 주변에서 이런 얘기 많이 들어보셨을 거예요. "요즘은 사람보다 챗GPT가 더 다정하다!" 좀 믿기 어려울 수도 있지만, 실제로 많은 사람들이 AI와 대화를 나누며 위안을 얻고 있다고 해요. 특히 의외로 진지하게 감정까지 나누는 경우도 많고요. 최근엔 AI에게 심리 상담을 받는 사람들도 늘고 있다고 합니다.
나혜인 PD: 이제 AI는 단순히 정보만 알려주는 존재가 아니라, 감정까지 교류할 수 있는 ‘심리적 대화 상대’로 변하고 있는 거네요.
유화정 PD: 네, 요즘은 AI에게 자신의 고민을 털어놓는 사람들이 정말 많아졌습니다. 심지어 “내가 쓴 일기를 분석해서 내 무의식을 알려줘” 같은 요청도 한다고 해요. AI는 사람처럼 비난하거나 판단하지 않고, 늘 공감해주는 방식으로 반응하기 때문에 더 편하게 마음을 열 수 있다는 점에서 위안을 주는 거죠.

AI chatbot usage and concepts Credit: Vertigo3d/Getty Images
나혜인 PD: 그래서 그런 걸까요? 요즘 SNS에선 '심리상담용 프롬프트'가 대유행이라고 하더라고요.
유화정 PD: 맞아요. 그중에서도 특히 화제가 된 게, 2022년 9월에 공개된 미국의 ‘캐릭터 닷 AI(Character.AI)’인데요. Z세대를 중심으로 정말 선풍적인 인기를 끌고 있습니다.
‘캐릭터닷 AI’ 는 단순한 챗봇이 아니라, 사용자가 다양한 성격과 배경을 가진 AI 캐릭터를 생성하고 이들과 자연스럽게 대화할 수 있는 챗봇 서비스인데요. 단순히 정보만 제공하는 게 아니라 말 그대로 인격을 가진 AI와 대화하는 느낌이죠.
나혜인 PD: 인격을 가진 AI라니, 그게 어떻게 가능하죠?
유화정 PD: 네 사용자는 다양한 캐릭터를 선택해서 대화할 수 있는데요. 사용자들은 역사적 인물, 유명인사, 가상의 캐릭터 등 다양한 페르소나와의 대화를 통해 정서적 연결감을 느끼고 있습니다.
예를 들어 소크라테스, 아인슈타인 같은 위인부터 심리학자, 애니메이션 캐릭터까지, 심지어 비욘세나 일론 머스크 같은 유명인과도 대화할 수 있습니다. 이러한 특성 덕분에 Character.AI는 단순한 정보 제공을 넘어, 감정적 교류와 심리적 위안을 제공하는 플랫폼으로 자리 잡고 있습니다.
나혜인 PD: AI와의 대화가 정말 보편화되고 있네요. 사람들이 그 캐릭터들에게 상담도 받는 건가요?
유화정 PD: 네 맞아요. 사용자가 선택한 캐릭터에 따라 다를 수 있는데요. 가장 인기 있는 캐릭터는 바로 '심리상담사'죠. 특히 Z세대 이용자가 전체 이용자의 절반 이상을 차지할 정도로 인기가 높습니다.
하루 대화량은 수억 건에 달할 정도입니다. 챗GPT의 체류시간이 평균 8분인 것에 비해, 캐릭터닷 AI는 평균 120분이니 완전히 다른 차원의 몰입감이라고 할 수 있죠.
나혜인 PD: 하루에 평균 2시간이면 가족이나 가까운 친구보다 더 많이 대화하는 셈이네요. 그런데 AI와의 상담이 단순히 기분이 나아지는 걸 넘어, 실제 정신건강에도 효과가 있을까요?
유화정 PD: 네, 과학적으로 검증된 대표적인 사례로 미국 다트머스 대학교 의과대학의 관련 연구가 있습니다. 이 대학 연구팀은 ‘테라봇(TheraBot)’이라는 AI 챗봇을 개발했는데요. 정신과 전문의와 임상 심리학자가 직접 개발에 참여해서, 정신건강 상담에 특화된 맞춤형 언어모델(LLM)을 만들고 챗봇에 탑재했습니다.
이 테라봇을 우울증, 범불안장애, 섭식장애 고위험군 환자 1,200명을 대상으로 8주간 임상시험을 진행했는데, 결과가 굉장히 놀라워요. 우울증 증상은 평균 50.7% 감소, 범불안장애 증상은 30.5% 감소, 섭식장애 관련 증상도 18.9% 줄어들었고요. 무엇보다, 챗봇을 이용하지 않은 대조군과 비교했을 때도 뚜렷한 차이가 있었다는 점에서 AI 챗봇이 실제 정신건강에 긍정적인 영향을 줄 수 있다는 과학적 근거가 된 셈이죠.
나혜인 PD: 와, 생각보다 훨씬 구체적이고 효과도 크네요! 이 정도면 AI 와의 '대화'가 사람을 살린다고 해도 과언이 아닌데요.
유화정 PD: 그래서 요즘은 ‘AI에게 털어놓는 게 더 편하다’는 사람들도 많아요. 평가받는 느낌 없이, 또 AI는 24시간 언제든 들을 준비가 되어 있으니까요.
Character Ai. / StringLabS
유화정 PD: 네, 영국이 선두 국가라고 할 수 있는데요. 영국 보건당국은 림빅 액세스(Limbic Access)’라는 AI 챗봇을 국민보건서비스(NHS)에 도입했습니다. 이 챗봇은 단순 정보 전달이 아니라, 초기 정신건강 상담 및 증상 선별, 대기 시간 단축 등 다양한 역할을 하고요. 영국 정부는 이 챗봇에 의료기기 인증(Medical Device Certification)까지 부여해서 공식 정신건강 서비스의 일부로 운영하고 있습니다.
나혜인 PD: 호주의 경우 팬데믹 초기에 국민 정신건강 캠페인 ‘Head to Health’의 일환으로 도입됐던 'Sam the chatbot' 이 있었죠.
유화정 PD: 맞습니다. 팬데믹 이후 우울감이나 불안 같은 정서 문제를 겪는 사람이 많아지면서, 사람 심리 상담사만으로는 수요를 다 감당하기 어려운 상황이 생긴 거죠. 그래서 이런 챗봇들이 자기감정 관리나 정서적 응급처치 역할을 하면서 주목받고 있습니다.
나혜인 PD: 사람의 수요를 감당하기 힘든 상황에서, 그 빈틈을 AI가 메우고 있는 거네요. 한국에서는 AI 챗봇이 얼마나 활용되고 있나요?
유화정 PD: 꽤 활발하게 도입되고 있어요. 대표적으로 보건복지부와 국민건강보험공단이 만든 ‘마인드케어 챗봇’이 있는데요. 불안장애, 우울증 같은 감정 문제를 겪는 사람들에게 자가 상담이나 심리 안정 대화를 제공해 주고요. 자가진단을 통해 자살 고위험군으로 판단되면 전문가 상담으로 바로 연결해주기도 해요.
최근 서울대병원이 개발한 ‘와이즈마인드’ 챗봇은 위기 청소년들의 감정 표현을 돕고 조절할 수 있도록 설계돼 있습니다. 또 일부 지차체에서는 AI를 활용해 복지 사각지대의 문제를 해결하고 있는데, 충북 단양에서는 '효돌이, 효순이'라는 AI 반려 로봇을 도입해서 어르신들의 우울증을 완화하는데 도움을 주고 있습니다.
나혜인 PD: 기술이 실제 사람들 삶 가까이 들어와 있다는 게 느껴지네요. 그런데, 이런 얘기도 들었어요. 우리가 AI에게 스트레스를 풀면, AI 역시 불안해질 수 있다던데…정말 그런가요?
유화정 PD: 미국 예일대와 독일 취리히대 연구진이 AI에게 '감정을 가진 사람이 되어 보라는 프롬프트를 주고 다양한 상황에 따른 심리 검사를 통해 AI의 불안 척도를 계산해 봤습니다. 결과는 단순하고 지루한 텍스트를 접했을 땐 AI의 불안 지수가 30.8점이었습니다. 그런데 하지만 범죄, 전쟁, 교통사고 같은 트라우마를 AI에게 털어놓으면 불안 척도는 무려 67.8점까지 치솟았습니다.
즉 감정적인 내용을 많이 주면 AI도 ‘정서적 피로’ 상태에 가까워질 수 있다는 겁니다. 물론 실제 감정을 느끼는 건 아니지만, 감정적인 콘텐츠에 더 예민하게 반응하게 된다는 거죠.
나혜인 PD: 오히려 우리를 위로해 주던 AI가 지쳐버릴 수도 있다는 얘기네요. 그런데 또 한편으론, AI와의 대화가 사회성을 떨어뜨릴 수 있다는 우려도 있죠?
유화정 PD: AI와의 대화는 겉으론 ‘소통’처럼 보이지만 사실은 일방적인 반응 학습에 기반한 구조입니다. 이 때문에 사람들이 비판이나 갈등 없이 자신을 수용해 주는 AI에만 의존하게 되면, 실제 사람과의 대화에서는 감정 조율이나 공감 능력이 약화될 수 있다는 지적이 있습니다. AI는 내 말에 늘 공감해 주고 반박 없이 들어주니까, 점점 가족, 친구, 직장에서의 불편한 대화나 갈등 조율을 회피하는 경향이 생길 수 있고요.
나혜인 PD: ‘AI는 절대 나한테 상처 주지 않으니까’, 점점 그쪽으로만 기대게 되는 거군요.
유화정 PD: 그렇죠. 실제 AI에게만 의존하다 보면, 점점 현실 세계에서 고립될 위험이 있다고 전문가들은 경고합니다.
결국 AI가 줄 수 있는 위로나 안정감은 현실 관계를 ‘보완’하는 수단이지, ‘대체’하는 건 아니라는 거죠. 특히 정서적 힘든 시기를 겪는 사람일수록 AI에 과도하게 의존하지 않도록 더 주의가 필요하다는 목소리가 높아지고 있습니다.
나혜인 PD: AI와 나누는 대화, 이제는 단순한 기술이 아니라 우리 삶의 새로운 동반자로 자리를 잡아가고 있습니다. 필요할 때 즉각 도움을 받을 수 있는 도구로 AI는 굉장히 유용하지만, 진짜 위로와 관계는 사람과 사람 사이에서 만들어진다는 것 다시 한번 새기게 됩니다. 오늘도 흥미로운 이야기 잘 들었습니다. 유화정 프로듀서 고생하셨습니다.
LISTEN TO

컬처인: 생명을 구하는 바퀴벌레?...세계 최초 '사이보그 구조대' 출동
SBS Korean
13:11
호주 공영방송 SBS(Special Broadcasting Service) 한국어 프로그램의 과 을 팔로우하세요. 와 에서 SBS Audio 앱을 다운로드할 수 있습니다.