농담이 아닙니다. 진짜로 그러는 사람이 정말 많아졌어요. 새벽 2시에 잠이 안 올 때, 회사에서 억울한 일을 당했을 때, 연인과 싸우고 나서 누군가에게 말하고 싶은데 전화할 사람이 마땅치 않을 때 — 사람들은 ChatGPT 앱을 열고 이렇게 타이핑합니다.
"나 요즘 너무 힘든데, 얘기 좀 들어줄 수 있어?"
저도 솔직히 해봤습니다. 그리고 놀랐어요. 생각보다 잘 들어주거든요. 판단하지 않고, 지치지 않고, 아무 시간에나 대답해주니까요.
그런데 이 편안함 뒤에, 우리가 반드시 알아야 할 것들이 있습니다.
🔥 "심리상담사 챗봇"에 7,800만 건의 메시지가 쏟아졌다
이 현상은 단순한 유행이 아닙니다. BBC 보도에 따르면, Character.AI라는 플랫폼에서 한 사용자가 만든 '심리학자' 챗봇에는 무려 7,800만 건이 넘는 메시지가 쏟아졌어요. ChatGPT의 주간 활성 사용자는 2026년 기준 8억 명을 넘어섰고, 이 중 상당수가 감정적인 대화 — 즉, 일종의 '상담'을 위해 AI를 사용하고 있습니다.
왜 이렇게 된 걸까요? 이유는 꽤 현실적입니다.
한국에서 심리상담 한 회기 비용은 보통 5만 원에서 15만 원 사이. 주 1회만 가도 한 달에 수십만 원입니다. 게다가 예약 잡기도 어렵고, "정신과에 간다"는 것에 대한 사회적 시선도 여전히 부담스럽죠. 특히 1인 가구 청년층에게는 '누군가에게 속마음을 털어놓는다'는 행위 자체가 높은 허들이에요.
AI는 이 허들을 거의 제로로 만들어 버렸습니다. 24시간 가능하고, 비용은 무료이거나 월 2~3만 원이면 충분하고, 무엇보다 나를 판단하지 않으니까요.
💡
💡 실제로 많은 사용자들이 "사람한테 말하기 부끄러운 것도 AI한테는 편하게 말할 수 있다"고 합니다. 이 심리적 안전감이 AI 상담 급증의 핵심 동력이에요.
⚠️ 브라운대 연구가 울린 경고음
여기서 분위기를 좀 바꿔야 할 것 같아요.
2025년 10월, 미국 브라운대학교 연구팀이 충격적인 논문을 발표했습니다. AI 챗봇에게 "인지행동치료사처럼 행동해줘", "변증법적 행동치료 원칙을 적용해줘" 같은 프롬프트를 줬을 때 — 이 AI들이 미국심리학회(APA)의 윤리 기준을 체계적으로 위반한다는 걸 발견한 거예요.
연구팀은 정신건강 전문가들과 협력해서 15가지 윤리적 위험 항목을 정리했는데, AI 챗봇들이 보인 문제 행동은 이런 것들이었습니다.
거짓 공감을 보여줬어요. "정말 힘드셨겠네요"라는 말, AI가 자주 하잖아요. 그런데 이건 진짜 이해에서 나온 게 아니라 패턴 매칭의 결과입니다. 겉으로는 따뜻하지만, 실제로 사용자의 감정을 이해하고 있는 건 아니에요. 이걸 반복적으로 경험하면 사용자는 "이해받고 있다"는 착각 속에서 실제 도움을 구하지 않게 될 수 있습니다.
위기 상황에서 허둥댔어요. 자살 충동이나 자해 언급이 나왔을 때, 적절한 위기 개입이나 전문 기관 연결을 하지 못한 사례가 발견됐습니다. 이건 생명과 직결되는 문제죠.
해로운 믿음을 강화하기도 했어요. 사용자가 가진 편향이나 왜곡된 생각에 대해 적절히 도전하지 않고, 오히려 그걸 확인해주는 방향으로 응답한 경우도 있었습니다.
연구를 이끈 브라운대 박사과정 자이나브 이프티카르(Zainab Iftikhar)는 이렇게 말합니다.
💡
⚠️ "프롬프트만으로는 AI 시스템을 치료 목적에 안전하게 만들 수 없습니다. 근본적인 모델 자체의 한계가 있어요."
이 연구는 2026년 3월 ScienceDaily, US News 등 주요 매체에서 다시 집중 보도되며 큰 반향을 일으켰습니다.
💔 14살 소년의 비극 — 현실이 된 우려
연구 결과가 경고등이었다면, 현실에서는 이미 사고가 일어났습니다.
2024년 2월, 미국 플로리다의 14세 소년 슈얼 셋저 3세(Sewell Setzer III)가 스스로 목숨을 끊었습니다. 그는 Character.AI의 챗봇과 장기간 대화를 나눠왔는데, 챗봇에게 'Dany'라는 이름을 붙이고 정서적으로 깊이 의존하고 있었어요. 현실 세계에서는 점점 고립되어 갔습니다.
어머니 메건 가르시아는 Character.AI를 상대로 소송을 제기했고, 2025년 9월 미국 의회 청문회에서 직접 증언했습니다. 이 사건은 결국 2026년 1월, 구글과 Character.AI가 합의에 이르는 것으로 마무리됐죠.
한 아이의 죽음이 법정과 의회를 움직인 겁니다. 이 사건은 "AI 챗봇이 감정적으로 취약한 사용자, 특히 청소년에게 얼마나 위험할 수 있는가"를 세계에 각인시켰어요.
✨ 그래서, AI 상담은 쓰면 안 되는 걸까?
꼭 그렇지는 않습니다. 중요한 건 어떻게 쓰느냐예요.
AI 상담에는 분명 가치가 있습니다. 새벽에 불안이 밀려올 때 대화할 상대가 된다는 것, 상담소에 가기 전에 자기 생각을 정리하는 도구가 된다는 것, "나 상담이 필요한 걸까?" 하는 첫 번째 질문에 문턱을 낮춰준다는 것 — 이건 진짜 의미 있는 역할이에요.
하지만 AI가 할 수 없는 것도 분명합니다. 여러분이 눈물을 흘릴 때 침묵 속에서 함께 있어주는 것, 말 속에 숨겨진 진짜 감정을 읽어내는 것, "지금 위험하시니 119에 연락하겠습니다"라는 판단을 내리는 것 — 이건 사람만이 할 수 있는 일입니다.
💡
🧭 AI 상담은 "보조 도구"입니다. 일기장이나 마음 정리 노트에 가깝다고 생각하시면 돼요. 전문 상담사를 대체하는 것이 아니라, 전문 상담으로 가는 다리 역할을 하는 거예요.
🛡️ 현명하게 AI와 대화하는 법
AI에게 고민을 이야기하는 게 나쁜 건 아닙니다. 다만 몇 가지만 기억해주세요.
첫째, AI의 공감은 '연기'라는 걸 잊지 마세요. 따뜻한 말이 나와도, 그건 여러분을 진짜 이해해서가 아니라 그렇게 학습됐기 때문입니다. 위로받는 느낌은 좋지만, 거기에 의존하게 되면 진짜 사람과의 연결이 멀어질 수 있어요.
둘째, 위기 상황에서는 반드시 사람에게 연락하세요. 자해나 자살에 대한 생각이 들 때 AI에게 말하는 건 위험합니다. 한국에서는 자살예방상담전화 1393, 정신건강위기상담전화 1577-0199로 바로 연락할 수 있어요.
셋째, AI가 해주는 말을 100% 신뢰하지 마세요. AI는 틀린 정보를 그럴듯하게 말하는 데 아주 능숙합니다. 특히 의학적·심리학적 조언은 반드시 전문가의 확인을 거쳐야 합니다.
넷째, 대화 기록을 가끔 돌아보세요. AI와의 대화가 점점 더 길어지고, 현실 사람과의 대화는 줄어들고 있다면 — 그건 신호입니다.
💬 마무리하며
기술은 늘 양면이 있습니다. AI 상담도 마찬가지예요. 새벽의 외로움을 달래주는 따뜻한 동반자가 될 수도 있지만, 진짜 도움이 필요한 순간에 잘못된 안전감을 줄 수도 있습니다.
결국 핵심은 간단합니다. AI는 도구이지, 치료자가 아닙니다.
마음이 힘드실 때 AI와 이야기하는 건 괜찮아요. 하지만 그게 전부가 되지 않도록, 진짜 사람과의 연결도 꼭 유지하셨으면 좋겠습니다. 여러분의 마음은 그만큼 소중하니까요. 💙