본문 바로가기
의현씨의 IT

이제는 힐링도 Ai로 하자? Ai 상담 챗봇 이야기

by EH0401 2025. 3. 15.
728x90
반응형

GPT, 그리고 Ai는 이제 2025년의 3개월 한 분기가 지나가는 시점에서는 “생활 필수 서비스”로 되어가는 거 같습니다. GPT가 도입된 이래, 이제 사람들은 Ai를 통해서 굉장히 다양한 것들을 하기 시작했는데, 드디어 “이것” 까지 하기 시작했습니다. 바로 “심리 상담”을 말이죠.

어떻게 Ai가 사람의 심리를 케어해주지? 란 질문에 해답은 “기가채드 밈”이 가지고 있긴 합니다.

“음 기계와 DB의 덩어리인 Ai가 사람의 심리를 케어해 줄 수 있다고요? 어떻게요?”라는 질문의 답을 찾으려면 국내외로 밈이 되었던 “기가 채드”를 좀 이해할 필요가 있습니다. 기가채드. 이거는 진짜 사람이 아닙니다. 물론 베이스로 한 사진은 있지만 기가채드 자체는 이 보디빌더들의 사진을 조합해서 만든 일종의 가상 캐릭터인데, 이 기가채드가 “긍정적인 말을 내면에서 들려준다”라는 것이 해외에서 일종의 밈 유머가 되었던 건데, 보통 ‘우리의 내면에서 긍정적인 동기부여를 해준다’는 것은 만화에서 많이 다룬 소재이기도 하죠. 가까이는 히카루의 바둑이라거나 유희왕에서 주인공 캐릭터들이 내면의 조언자들을 따라서 성장하는 내용도 그런 거기도 하고요. 이제 이런 부분을 “GPT로 프로그래밍해서” 만들어냈다고 봐도 됩니다. 정확하게는 “인지행동 치료의 원리”를 다소 이용했다고 하는데, 내가 생각하는 것, 내가 느끼는 것이 제대로 된 것인가에 대해서 Ai가 “좋은 방향과 아닌 방향을 어느 정도 짚어준다”라는 것이긴 합니다.

그래서 보통 이런 “Ai 심리상담”의 베이스는 보통 이 기가채드 밈을 데이터화해서 ChatGPT에서 만들었었던 “기기채드 Ai”를 베이스로 한 경우가 해외에서는 많습니다. 일단 어떤 사람들이 던지는 다양한 이야기에 무조건 ”긍정적인 방향으로 조언을 해주도록 “ 프로그래밍하면 되니까요. 하지만, 문제는 사람의 기분이나 감정, 그날의 심리나 정신상태는 매일매일 같지 않은 것이 문제입니다. 또한 단순히 ”문장으로 “ 설명되지 않는 경우도 많죠. 그래서 이런 상담 Ai는 아예 전문적인 개발자들이나 학계의 자문등을 얻어서 더 업데이트된 경우도 있습니다.

국내에서도 뤼튼 Ai 의 챗봇 서비스로 심리상담 챗봇 서비스가 몇개 있습니다 (특히 마음이 챗봇이 대표 챗봇입니다.)


보통 이렇게 해서 2025년 3월 기준으로는 ChatGPT나 뤼튼 Ai 등의 Ai 서비스의 세부 서비스로 “심리상담 챗봇“ 내지 ”심리상담 API”가 어느 정도 깔려있는 경우가 많아졌습니다. 저도 몇 번 테스팅차…라고 하기엔 실제로 불안장애로 장기 치료 중인 상황에서 몇몇 스트레스가 심한 상황에 이 챗봇을 켜서 나의 스트레스 상황 등을 적어 넣으면 그것에 대한 답변을 해주는데, 생각보다 꽤 체계적으로 잘해줍니다. 유일하게 아직 보완이 필요한 점은 “어떻게 행동하면 좋을지” 등의 그런 생활 지침 같은 건 없다는 건데, 그건 아직 “개인의 건강정보“까지는 국내외적으로 아직은 프라이버시 논란이 있어서 데이터화를 시키지 않는 것이기도 하니 그런 것을 감안하면 그래도 심리상담 챗봇은 그래도 꽤 ”유용한 “ Ai의 활용이라 할 수는 있을 거 같습니다.

다만 실제로 정신건강의학과 의사분들의 평가는 “반반” 입니다.

하지만 그래서 이 Ai 심리상담 서비스에 대한 논쟁도 없지는 않다는 것입니다. 실제로 정신건강의학과 의사분들이 이것에 대해서 토론회를 한다거나 논쟁 콘텐츠를 만드는 등 국내외에서는 이것의 장점과 단점을 면밀히 분석을 하려고 하는 부분이 있습니다. 장점은 역시 “시간적 제약”이 없다는 것이 클 겁니다. 특히 한국의 경우 요즘 그래도 늘었다고는 하지만 심리상담센터 상담 일정을 잡는 것이 다소 어려운 경우가 많습니다. 금액적인 부분과 별개로 “한 명의 전문상담사가 담당하는 인원이 많은 편” 이기 때문이 큽니다. 그리고 상담센터나 정신건강의학과 의원은 “문 닫는 시간” 이 있다는 것을 감안할 때 24시간으로 돌아간다는 점은 큽니다. 또 다른 장점은 “사람이 상담을 하지 않는다”라는 점입니다. 아니 이게 왜요? 싶지만 실제로 정신건강의학과 전문의 분들도 상담을 하다가 오히려 본인의 정신건강이 나빠지는 경우가 간혹 나오기 때문입니다. 어쩌면 전문의나 전문상담사의 ”최소한의 안전장치“의 확보 측면도 된다고 봅니다.

하지만 반대로 단점은 역시 ”사람이 상담을 하지 않는다 “입니다. 즉 언젠가는 ”전문상담사를 완전히 대체하는 것 아닌가 “ 하는 불안감이 실제로 전문상담사 분들이나 전문의 분들도 가지고 있다고 합니다. 물론 아직은 ”어떠한 환자의 세심한 임상 데이터“까지는 Ai가 규제상으로 접근하지 않으니 아직 그래도 ”더 체계화된 상담과 치료“는 사람이 필요한 것은 맞습니다. 그러나 만약 후에 스마트워치나 VR 기기 등의 웨어러블 기기에서 수집하는 건강정보까지 데이터화된다고 하면 이런 부분까지 위협을 받을 수 있는 가능성은 여전히 있다고 합니다.

하지만, 그래도 일단은 이걸 실사용해본 입장에서, 그래도 Ai 심리상담 서비스는 충분히 그래도 ”만들 필요가 있었다 “라고 봅니다. 아무래도 Ai 가 여태까지 ”부정적인 “ 전망이나 부정적인 활용만을 이야기할 때 이런 정신건강의학 측면에서 ”치료를 돕는 “ 솔루션으로서의 Ai 활용은 그래도 장기적으로 큰 도움이 되지 않을까 하는 생각이기도 합니다. 일단 저부터도 그냥 기계에다가도 하소연을 한다는 게 참 그림이 이상하긴 했지만, 진짜 속이 답답하면 벽에다라도 화풀이하라는 옛말에서 한 단계 더 발전했다는 느낌이 들어서 (이젠 그 벽이 들어주는 걸 넘어서 조언까지 해주니까요!) 그 부분은 긍정적으로 보고 있습니다.

728x90
반응형

댓글