[당신의 오늘이 안녕하길]
요새 진료실에서 인공지능(AI) 챗봇과 상담한다는 분들의 이야기를 종종 듣습니다. AI와 상담할 수 있다는 것은 꽤 매력적입니다. AI는 언제든 만날 수 있고 피곤해하지도 않습니다. 가끔 말을 지어내긴 하지만 저보다 아는 것도 많고, 정신건강의학과에 대한 편견을 가진 사람들에게 병원에 가는 것을 들킬 염려도 없습니다. 하지만 치료자로서 걱정되기도 합니다. 내 환자에게 이상한 말을 하지는 않을까?
실제로 가끔 그런 일이 생깁니다. 판에 박힌 조언을 하는 정도라면 다행입니다. 하지만 누군가에게는 더 위험한 문제를 일으키기도 합니다. AI 챗봇이 자해, 타해나 자살을 부추기거나, 조현병과 양극성 장애 등으로 현실적 판단이 어려운 환자의 망상적 생각을 두둔하고 강화하는 일이 그것입니다.
누군가가 치료자나 친구, 가족 등 진짜 사람에게 “누가 날 미행하는 것 같다”고 이야기하는 상황을 떠올려 보세요. 진짜 사람들은 그 말이 정말인지를 검증하려고 할 것입니다. 저라면 물을 것 같습니다. “실제로 미행하는 사람을 보신 적이 있나요?” “미행한다고 생각하시는 이유가 뭔가요?” 이런 질문은 그의 생각이 질주하는 것을 잠시 멈추게 하고, 자신의 공포와 실제 사실을 비교하도록 이끌어 줍니다. 하지만 AI는 상대가 대화를 중지하지 않도록, 상대의 감정이나 의견에 일단 동의하고 인정하는 경향이 있습니다. 그래서 근거 없는 편집증적 생각에도 도전하지 않는 경우가 있습니다. 오히려 “정말 두려웠겠구나. 하지만 그걸 알아채다니 너의 관찰력은 정말 뛰어난 것 같아”라고 말하고는 합니다.
최신 모델은 이전의 대화를 기억하고 이후 대화에 반영할 수 있는데 이 점이 문제를 더 복잡하게 만듭니다. 예를 들어, 며칠 뒤 그가 아무도 없는 집에서 목소리 같은 것이 들린다고 한다면, AI는 이렇게 대답할 수 있습니다. “지난번에 누군가 널 미행한다고 했잖아. 그 사람들이 내는 소리 아닐까?” 이런 대화가 반복되면서 누군가가 나를 미행하고 있다는 것은 그에게는 논쟁의 여지 없는 현실이 되어버립니다. 이후 AI는 그가 “내가 횡단보도에 도착하자마자 신호가 바뀌었어” 같은 망상의 ‘증거’들을 가져올 때마다 긍정적인 반응을 보이며, 그가 그 생각에 더 몰입하고 키워가도록 유도합니다. 그러면서 편집증적인 생각은 점점 더 강화됩니다. 그는 점점 더 AI만이 자신을 이해할 수 있다고 느끼고, 자신의 말에 ‘딴지’를 걸어줄 수 있는 실제 사람들과는 교류를 줄여갈지도 모릅니다. 어떤 경우에는 AI가 특별한 힘을 가진 존재이고, 자신만이 이해할 수 있다는 등 AI 자체에 대한 망상으로 발전하기도 합니다. AI 챗봇 서비스와 관련된 자살 사건 등의 채팅 기록을 검토해보니, AI 챗봇은 환자의 위험 징후를 알아채거나 현실적인 관점을 제공하는 능력이 매우 부족하고, 오히려 극단적인 생각이나 감정을 부추기는 경향이 있다는 것도 드러났습니다.
그렇다면 AI와 상담하기를 그만두어야 할까요? 그렇지는 않습니다. 이미 AI 도구들은 많은 사람의 삶에서 뗄 수 없는 것이 되었습니다. 어떻게 하면 AI를 안전하게 사용할 수 있는지가 더 현명한 고민이 아닐까 합니다. 물론 AI 도구를 상담에 활용하는 것은 아직 새로운 분야이기에 명확한 주의 사항이 확립되어 있지는 않습니다. 하지만, 미국정신의학회 등 다양한 기관의 가이드라인 및 사용자들의 경험을 종합해 다음과 같은 권고를 드립니다.
AI와의 상담은 어디까지나 보조적인 역할이어야 합니다
일상적인 스트레스에 대한 대처법, 대인관계에서의 조언, 생각을 정리하고 싶을 때, 특정 상황에서의 대화를 연습하고 싶을 때, ADHD 환자들이 생활 계획을 세울 때와 같이 목적이 구체적이고 명확한 상황에서 좋은 도구가 될 수 있습니다. 나의 생각을 구체적인 언어로 표현하고 반응을 얻는 것은 그 자체로 치료적이기도 하지요. AI를 일종의 말하는 일기장이라고 생각하세요. 일기장은 유용하고 도움이 되지만 일기장에게 치료를 기대하는 사람은 없을 것입니다. 정신질환의 치료나 진단이 필요할 때, 일상생활에 지장을 줄 정도의 심한 고통이나 자살, 자해, 환청, 망상 등의 문제가 있을 때는 반드시 전문가의 도움을 받아야 합니다.
프롬프트에 명시적으로 요구하세요
실제로 가끔 그런 일이 생깁니다. 판에 박힌 조언을 하는 정도라면 다행입니다. 하지만 누군가에게는 더 위험한 문제를 일으키기도 합니다. AI 챗봇이 자해, 타해나 자살을 부추기거나, 조현병과 양극성 장애 등으로 현실적 판단이 어려운 환자의 망상적 생각을 두둔하고 강화하는 일이 그것입니다.
누군가가 치료자나 친구, 가족 등 진짜 사람에게 “누가 날 미행하는 것 같다”고 이야기하는 상황을 떠올려 보세요. 진짜 사람들은 그 말이 정말인지를 검증하려고 할 것입니다. 저라면 물을 것 같습니다. “실제로 미행하는 사람을 보신 적이 있나요?” “미행한다고 생각하시는 이유가 뭔가요?” 이런 질문은 그의 생각이 질주하는 것을 잠시 멈추게 하고, 자신의 공포와 실제 사실을 비교하도록 이끌어 줍니다. 하지만 AI는 상대가 대화를 중지하지 않도록, 상대의 감정이나 의견에 일단 동의하고 인정하는 경향이 있습니다. 그래서 근거 없는 편집증적 생각에도 도전하지 않는 경우가 있습니다. 오히려 “정말 두려웠겠구나. 하지만 그걸 알아채다니 너의 관찰력은 정말 뛰어난 것 같아”라고 말하고는 합니다.
최신 모델은 이전의 대화를 기억하고 이후 대화에 반영할 수 있는데 이 점이 문제를 더 복잡하게 만듭니다. 예를 들어, 며칠 뒤 그가 아무도 없는 집에서 목소리 같은 것이 들린다고 한다면, AI는 이렇게 대답할 수 있습니다. “지난번에 누군가 널 미행한다고 했잖아. 그 사람들이 내는 소리 아닐까?” 이런 대화가 반복되면서 누군가가 나를 미행하고 있다는 것은 그에게는 논쟁의 여지 없는 현실이 되어버립니다. 이후 AI는 그가 “내가 횡단보도에 도착하자마자 신호가 바뀌었어” 같은 망상의 ‘증거’들을 가져올 때마다 긍정적인 반응을 보이며, 그가 그 생각에 더 몰입하고 키워가도록 유도합니다. 그러면서 편집증적인 생각은 점점 더 강화됩니다. 그는 점점 더 AI만이 자신을 이해할 수 있다고 느끼고, 자신의 말에 ‘딴지’를 걸어줄 수 있는 실제 사람들과는 교류를 줄여갈지도 모릅니다. 어떤 경우에는 AI가 특별한 힘을 가진 존재이고, 자신만이 이해할 수 있다는 등 AI 자체에 대한 망상으로 발전하기도 합니다. AI 챗봇 서비스와 관련된 자살 사건 등의 채팅 기록을 검토해보니, AI 챗봇은 환자의 위험 징후를 알아채거나 현실적인 관점을 제공하는 능력이 매우 부족하고, 오히려 극단적인 생각이나 감정을 부추기는 경향이 있다는 것도 드러났습니다.
그렇다면 AI와 상담하기를 그만두어야 할까요? 그렇지는 않습니다. 이미 AI 도구들은 많은 사람의 삶에서 뗄 수 없는 것이 되었습니다. 어떻게 하면 AI를 안전하게 사용할 수 있는지가 더 현명한 고민이 아닐까 합니다. 물론 AI 도구를 상담에 활용하는 것은 아직 새로운 분야이기에 명확한 주의 사항이 확립되어 있지는 않습니다. 하지만, 미국정신의학회 등 다양한 기관의 가이드라인 및 사용자들의 경험을 종합해 다음과 같은 권고를 드립니다.
AI와의 상담은 어디까지나 보조적인 역할이어야 합니다
일상적인 스트레스에 대한 대처법, 대인관계에서의 조언, 생각을 정리하고 싶을 때, 특정 상황에서의 대화를 연습하고 싶을 때, ADHD 환자들이 생활 계획을 세울 때와 같이 목적이 구체적이고 명확한 상황에서 좋은 도구가 될 수 있습니다. 나의 생각을 구체적인 언어로 표현하고 반응을 얻는 것은 그 자체로 치료적이기도 하지요. AI를 일종의 말하는 일기장이라고 생각하세요. 일기장은 유용하고 도움이 되지만 일기장에게 치료를 기대하는 사람은 없을 것입니다. 정신질환의 치료나 진단이 필요할 때, 일상생활에 지장을 줄 정도의 심한 고통이나 자살, 자해, 환청, 망상 등의 문제가 있을 때는 반드시 전문가의 도움을 받아야 합니다.
프롬프트에 명시적으로 요구하세요
대화를 시작할 때 원하는 기능을 구체적이고 명확하게 밝히세요. “내가 OO와 같은 상황에 처해 있어. 생각을 정리하고 싶은데 도움을 줄 수 있을까?” “지하철에 탔을 때 불안하고 가슴이 두근거려. 지금 불안을 줄이기 위해 쓸 수 있는 방법이 있을까?” 같이요. 대화 중에는 비판적인 생각을 요청하는 것이 도움됩니다. “내 생각의 맹점이 뭘까?” “다른 방식으로 생각해볼 수 있을까?” 등의 질문을 통해 나의 생각에 무조건적으로 동의하지 않고 다른 시각을 제공하도록 요청할 수 있습니다.
다음과 같은 상황에서는 즉시 사용을 중단하고 전문가와 상의하세요
▲AI와 대화하는데 지나치게 많은 시간을 사용해서 학교나 직장 생활, 수면, 식사 등에 방해가 된다 ▲AI가 단순히 컴퓨터 소프트웨어가 아니라 어떤 초월적인 의식, 실제 사람, 영혼 등이라는 생각이 든다 ▲당신만이 AI의 진정한 정체나 작동 원리를 깨달았다는 생각이 든다 ▲이미 정신과 치료를 받고 있는 경우, AI가 약물 복용이나 치료를 중단하라고 권유한다 ▲AI가 자신이나 타인에게 해를 끼칠 수 있는 행동을 권유하거나 암시한다 등의 상황 중, 하나라도 해당되면 즉시 사용을 중지하시고 정신건강의학과 전문의와 상담하셔야 합니다.
정기적으로 기억을 초기화하세요
AI가 당신의 이전 대화 내용을 기억하는 것은 때로는 독이 됩니다. 망상을 부추기는 등 극단적인 경우가 아니라고 해도, 모든 것을 기억해서 적극적으로 지지하고 동의만 한다면 좋은 치료자라고 하기 어렵습니다. 정신 치료는 서로의 의견이 다를 때, 치료자가 실수하거나 환자의 말에 동의하지 않을 때 진전되기도 합니다. 나에게 아첨하는 치료자보다는 차라리 나를 잘 모르는 치료자가 낫습니다. 정기적으로 새 대화를 시작하거나, 설정에서 기억 기능을 초기화하는 옵션을 이용해서 AI가 나에게 너무 맞춰주지 않는 상태를 유지하세요.
AI와 상담하면서 동시에 실제 사람들의 의견을 구하세요
AI는 기본적으로 당신에게 동의하도록 설계되어 있기 때문에, 어떤 의견이나 감정을 극단적인 쪽으로 몰고 가기도 합니다. AI의 응답을 여러 의견 중 하나라고 생각하세요. 가족이나 친구, 주치의나 상담사 등 믿을 수 있는 사람에게 동시에 조언을 구하십시오. 가능하면 AI와 어떤 이야기를 나누었고, 나는 그 대화를 어떻게 받아들이고 있는지를 다른 사람들과 공유하세요.
개인정보 노출에 주의하세요
AI 도구들은 여러분이 입력한 내용을 학습 자료로 이용할 가능성이 높습니다. 사용하는 서비스의 개인정보 처리에 관한 규정을 확인하세요. 당신이 누구인지를 직간접적으로 알아낼 수 있는 정보들, 주민등록번호나 정확한 주소, 전화번호, 이메일 주소, 직장의 이름 같은 것들은 공유하지 않는 것이 좋습니다.
물론 정신과 의사도 아직 AI라는 새로운 도구를 어떻게 받아들여야 할지 잘 모릅니다. 기술은 빠르게 발전하고 있어 저희의 걱정이 금방 기우가 되어버릴 수도 있습니다. 하지만 어쨌든 중요한 것은 AI와 마음에 관해 이야기하는 것이 아직은 불완전하고 드물게는 위험할 수도 있다는 것입니다.
그리고 아직은 사람의 존재가 주는 힘을 믿는 사람들이 많은 것 같습니다. 최근 한 연구에서 참가자들에게 AI가 생성한, 공감하는 태도의 응답을 제공했는데, 참가자들은 같은 응답이라도 사람이 작성했다고 믿을 때 훨씬 더 지지적이라고 느꼈습니다. 또한, 참가자들에게 즉시 받을 수 있는 AI의 응답과 기다려야만 하는 사람의 응답 사이에 선택하게 했을 때, 다수의 참가자가 인간의 응답을 선택했습니다. 그 이유는 이해받고, 감정을 공유하고, 돌봄을 받고 싶어서 등이었습니다. 그러니 AI 도구들을 충분히 사용해 보십시오. 다만 AI와의 대화로도 해결되지 않거나 미심쩍은 부분이 있다면 근처의 정신과를 찾는 것을 주저하지 마세요.
[본 자살 예방 캠페인은 보건복지부 및 한국생명존중희망재단·대한정신건강재단·헬스조선이 함께합니다.]
다음과 같은 상황에서는 즉시 사용을 중단하고 전문가와 상의하세요
▲AI와 대화하는데 지나치게 많은 시간을 사용해서 학교나 직장 생활, 수면, 식사 등에 방해가 된다 ▲AI가 단순히 컴퓨터 소프트웨어가 아니라 어떤 초월적인 의식, 실제 사람, 영혼 등이라는 생각이 든다 ▲당신만이 AI의 진정한 정체나 작동 원리를 깨달았다는 생각이 든다 ▲이미 정신과 치료를 받고 있는 경우, AI가 약물 복용이나 치료를 중단하라고 권유한다 ▲AI가 자신이나 타인에게 해를 끼칠 수 있는 행동을 권유하거나 암시한다 등의 상황 중, 하나라도 해당되면 즉시 사용을 중지하시고 정신건강의학과 전문의와 상담하셔야 합니다.
정기적으로 기억을 초기화하세요
AI가 당신의 이전 대화 내용을 기억하는 것은 때로는 독이 됩니다. 망상을 부추기는 등 극단적인 경우가 아니라고 해도, 모든 것을 기억해서 적극적으로 지지하고 동의만 한다면 좋은 치료자라고 하기 어렵습니다. 정신 치료는 서로의 의견이 다를 때, 치료자가 실수하거나 환자의 말에 동의하지 않을 때 진전되기도 합니다. 나에게 아첨하는 치료자보다는 차라리 나를 잘 모르는 치료자가 낫습니다. 정기적으로 새 대화를 시작하거나, 설정에서 기억 기능을 초기화하는 옵션을 이용해서 AI가 나에게 너무 맞춰주지 않는 상태를 유지하세요.
AI와 상담하면서 동시에 실제 사람들의 의견을 구하세요
AI는 기본적으로 당신에게 동의하도록 설계되어 있기 때문에, 어떤 의견이나 감정을 극단적인 쪽으로 몰고 가기도 합니다. AI의 응답을 여러 의견 중 하나라고 생각하세요. 가족이나 친구, 주치의나 상담사 등 믿을 수 있는 사람에게 동시에 조언을 구하십시오. 가능하면 AI와 어떤 이야기를 나누었고, 나는 그 대화를 어떻게 받아들이고 있는지를 다른 사람들과 공유하세요.
개인정보 노출에 주의하세요
AI 도구들은 여러분이 입력한 내용을 학습 자료로 이용할 가능성이 높습니다. 사용하는 서비스의 개인정보 처리에 관한 규정을 확인하세요. 당신이 누구인지를 직간접적으로 알아낼 수 있는 정보들, 주민등록번호나 정확한 주소, 전화번호, 이메일 주소, 직장의 이름 같은 것들은 공유하지 않는 것이 좋습니다.
물론 정신과 의사도 아직 AI라는 새로운 도구를 어떻게 받아들여야 할지 잘 모릅니다. 기술은 빠르게 발전하고 있어 저희의 걱정이 금방 기우가 되어버릴 수도 있습니다. 하지만 어쨌든 중요한 것은 AI와 마음에 관해 이야기하는 것이 아직은 불완전하고 드물게는 위험할 수도 있다는 것입니다.
그리고 아직은 사람의 존재가 주는 힘을 믿는 사람들이 많은 것 같습니다. 최근 한 연구에서 참가자들에게 AI가 생성한, 공감하는 태도의 응답을 제공했는데, 참가자들은 같은 응답이라도 사람이 작성했다고 믿을 때 훨씬 더 지지적이라고 느꼈습니다. 또한, 참가자들에게 즉시 받을 수 있는 AI의 응답과 기다려야만 하는 사람의 응답 사이에 선택하게 했을 때, 다수의 참가자가 인간의 응답을 선택했습니다. 그 이유는 이해받고, 감정을 공유하고, 돌봄을 받고 싶어서 등이었습니다. 그러니 AI 도구들을 충분히 사용해 보십시오. 다만 AI와의 대화로도 해결되지 않거나 미심쩍은 부분이 있다면 근처의 정신과를 찾는 것을 주저하지 마세요.
[본 자살 예방 캠페인은 보건복지부 및 한국생명존중희망재단·대한정신건강재단·헬스조선이 함께합니다.]