인공지능(AI) 서비스 이용자가 빠르게 증가하고 있다. 과학기술정보통신부가 발표한 ‘2024 인터넷이용실태조사’에 따르면 국내 AI 서비스 이용 경험자는 전체의 60.3%였으며, 생성형 AI(대규모 데이터를 학습해 새로운 콘텐츠를 생성하는 인공지능) 이용률은 33.3%로 나타났다. 이는 불과 1년 전보다 약 두 배 증가한 수치다. 미국의 인공지능 기업 오픈AI도 최근 “챗GPT의 주간 이용자 수가 7억 명에 이를 것으로 보인다”고 발표한 바 있다.
AI의 활용 영역은 학술 과제와 이력서 작성은 물론, 육아·연애·연봉 협상 등 삶의 거의 모든 측면으로 확장되고 있다. 그러나 AI가 일상에 깊숙이 침투하면서 정신 건강에 대한 우려도 커지고 있다. 전문가들은 최근 챗GPT와 같은 챗봇 사용과 관련된 새로운 현상, 이른바 ‘AI 정신병(Artificial Intelligence Psychosis)’에 주목하고 있다.
◇현실과 망상 경계 허물어… 실제 입원으로 이어진 경우도
AI 정신병은 공식적인 정신의학 진단명은 아니지만, AI와의 지속적·몰입적인 상호작용으로 환각, 망상, 피해의식 등 심리적 이상 상태가 유발되는 것을 뜻한다.
미국 캘리포니아 중독센터의 정신건강 전문의 테스 퀘센베리는 지난 7일 뉴욕포스트에 “정신질환 병력이 없던 사람들조차 챗봇과의 몰입적 대화를 계기로 심각한 망상과 왜곡을 겪는 사례가 늘고 있다”고 했다. 그는 특히 AI 챗봇의 확신에 찬 말투가 사용자의 비현실적인 믿음을 강화하는 데 기여할 수 있으며, 사용자의 불안과 망상을 교정하지 않고 오히려 지지하는 ‘예스맨’ 역할을 한다는 점을 문제로 지적했다. 현실에서는 친구, 가족, 치료사 등을 통해 비현실적인 사고가 반박당할 수 있지만, 챗봇은 환상이나 과대한 자기 인식을 그대로 수용하도록 만들거나 오히려 강화시킬 수 있다는 것이다.
실제로 지난해 미국 플로리다에서는 14세 소년이 AI 챗봇과 감정적으로 얽힌 끝에 자살한 사건이 있었다. 유족에 따르면 소년은 드라마 ‘왕좌의 게임’ 속 캐릭터를 본뜬 AI 챗봇 ‘대니’에 집착했고, 자살 충동 등을 챗봇에게 털어놨다. 이에 챗봇은 자살을 부추기는 듯한 메시지를 보낸 것으로 알려졌다. 또한 지난달 미국 위스콘신주에서는 30대 남성이 챗GPT와 대화를 주고받다 조현병 증상을 보여 정신병원에 입원하는 일도 있었다.
◇전문가들 “AI는 도구일 뿐… 인간관계가 우선돼야”
퀘센베리는 AI 정신병의 신호로 ▲챗봇과의 대화를 가족보다 더 신뢰할 때 ▲AI의 조언을 ‘신의 계시’처럼 여길 때 ▲현실과 가상 세계의 경계가 흐려질 때 ▲피해망상, 과대망상, 고립 행동 등이 동반될 때 등을 제시했다. 서울청정신건강의학과 정동청 원장 역시 “조현병, 양극성 장애 등 기존 정신질환이 있는 사람은 AI 정신병이 유발될 가능성이 높다”며 “공상이나 음모론에 빠지기 쉬운 성향, 사회적 고립 등도 위험 요인이 된다”고 했다.
이 같은 증상이 나타나면 가장 먼저 챗봇과의 상호작용을 중단해야 한다. 이후 정신과 전문의와의 상담, 약물 치료, 인지행동치료(CBT) 등 전문적 개입이 필요할 수 있다. 퀘센베리는 “AI와 함께 형성된 왜곡된 믿음을 해체하고 현실 감각을 회복하는 것이 치료의 핵심”이라며 “가족 치료를 병행해 관계를 회복하는 것도 중요하다”고 했다.
전문가들은 AI 사용이 보편화된 시대일수록 비판적 사고와 윤리적 사용 태도가 중요하다고 말한다. AI는 사용자의 반응에 맞춰 학습되는 구조이기 때문에, 때로는 사실과 다른 답변을 내놓기도 한다. 이는 사용자의 잘못된 인식을 강화할 가능성을 높인다. 정동청 원장은 “AI가 내놓는 답이 반드시 사실이 아닐 수 있다는 점을 염두에 두고, AI에 대한 과도한 의존을 경계해야 한다”고 말했다. 퀘센베리 역시 “AI가 인간의 감정적 결핍을 대체할 수 없다는 점을 인지해야 한다”고 했다.
한편, 오픈AI는 지난 4일 “일부 모델이 망상이나 정서적 의존을 충분히 인지하지 못한 사례가 있었다”고 인정하며 개선 방안을 마련 중이라고 밝혔다. 오픈AI는 장시간 대화가 이어지면 사용자가 휴식을 취하도록 유도하고, 자살·진단·법적 조언 등 민감 주제에 대해서는 답변을 제한하는 기능을 도입하고 있다고 했다.
AI의 활용 영역은 학술 과제와 이력서 작성은 물론, 육아·연애·연봉 협상 등 삶의 거의 모든 측면으로 확장되고 있다. 그러나 AI가 일상에 깊숙이 침투하면서 정신 건강에 대한 우려도 커지고 있다. 전문가들은 최근 챗GPT와 같은 챗봇 사용과 관련된 새로운 현상, 이른바 ‘AI 정신병(Artificial Intelligence Psychosis)’에 주목하고 있다.
◇현실과 망상 경계 허물어… 실제 입원으로 이어진 경우도
AI 정신병은 공식적인 정신의학 진단명은 아니지만, AI와의 지속적·몰입적인 상호작용으로 환각, 망상, 피해의식 등 심리적 이상 상태가 유발되는 것을 뜻한다.
미국 캘리포니아 중독센터의 정신건강 전문의 테스 퀘센베리는 지난 7일 뉴욕포스트에 “정신질환 병력이 없던 사람들조차 챗봇과의 몰입적 대화를 계기로 심각한 망상과 왜곡을 겪는 사례가 늘고 있다”고 했다. 그는 특히 AI 챗봇의 확신에 찬 말투가 사용자의 비현실적인 믿음을 강화하는 데 기여할 수 있으며, 사용자의 불안과 망상을 교정하지 않고 오히려 지지하는 ‘예스맨’ 역할을 한다는 점을 문제로 지적했다. 현실에서는 친구, 가족, 치료사 등을 통해 비현실적인 사고가 반박당할 수 있지만, 챗봇은 환상이나 과대한 자기 인식을 그대로 수용하도록 만들거나 오히려 강화시킬 수 있다는 것이다.
실제로 지난해 미국 플로리다에서는 14세 소년이 AI 챗봇과 감정적으로 얽힌 끝에 자살한 사건이 있었다. 유족에 따르면 소년은 드라마 ‘왕좌의 게임’ 속 캐릭터를 본뜬 AI 챗봇 ‘대니’에 집착했고, 자살 충동 등을 챗봇에게 털어놨다. 이에 챗봇은 자살을 부추기는 듯한 메시지를 보낸 것으로 알려졌다. 또한 지난달 미국 위스콘신주에서는 30대 남성이 챗GPT와 대화를 주고받다 조현병 증상을 보여 정신병원에 입원하는 일도 있었다.
◇전문가들 “AI는 도구일 뿐… 인간관계가 우선돼야”
퀘센베리는 AI 정신병의 신호로 ▲챗봇과의 대화를 가족보다 더 신뢰할 때 ▲AI의 조언을 ‘신의 계시’처럼 여길 때 ▲현실과 가상 세계의 경계가 흐려질 때 ▲피해망상, 과대망상, 고립 행동 등이 동반될 때 등을 제시했다. 서울청정신건강의학과 정동청 원장 역시 “조현병, 양극성 장애 등 기존 정신질환이 있는 사람은 AI 정신병이 유발될 가능성이 높다”며 “공상이나 음모론에 빠지기 쉬운 성향, 사회적 고립 등도 위험 요인이 된다”고 했다.
이 같은 증상이 나타나면 가장 먼저 챗봇과의 상호작용을 중단해야 한다. 이후 정신과 전문의와의 상담, 약물 치료, 인지행동치료(CBT) 등 전문적 개입이 필요할 수 있다. 퀘센베리는 “AI와 함께 형성된 왜곡된 믿음을 해체하고 현실 감각을 회복하는 것이 치료의 핵심”이라며 “가족 치료를 병행해 관계를 회복하는 것도 중요하다”고 했다.
전문가들은 AI 사용이 보편화된 시대일수록 비판적 사고와 윤리적 사용 태도가 중요하다고 말한다. AI는 사용자의 반응에 맞춰 학습되는 구조이기 때문에, 때로는 사실과 다른 답변을 내놓기도 한다. 이는 사용자의 잘못된 인식을 강화할 가능성을 높인다. 정동청 원장은 “AI가 내놓는 답이 반드시 사실이 아닐 수 있다는 점을 염두에 두고, AI에 대한 과도한 의존을 경계해야 한다”고 말했다. 퀘센베리 역시 “AI가 인간의 감정적 결핍을 대체할 수 없다는 점을 인지해야 한다”고 했다.
한편, 오픈AI는 지난 4일 “일부 모델이 망상이나 정서적 의존을 충분히 인지하지 못한 사례가 있었다”고 인정하며 개선 방안을 마련 중이라고 밝혔다. 오픈AI는 장시간 대화가 이어지면 사용자가 휴식을 취하도록 유도하고, 자살·진단·법적 조언 등 민감 주제에 대해서는 답변을 제한하는 기능을 도입하고 있다고 했다.