[해외토픽]

이미지
챗GPT가 제공한 건강 정보를 믿고 정보대로 음식을 먹었다가 브롬중독증에 걸려 정신착란을 겪은 미국 60대 남성의 사연이 공개됐다./사진=챗GPT 생성 사진
챗GPT가 제공한 건강 정보를 믿고 정보대로 음식을 먹었다가 ‘브롬중독증’에 걸려 정신착란을 겪은 미국 60대 남성의 사연이 공개됐다.

미국 워싱턴대 의대 병원 의료진에 따르면 한 60세 남성 A씨는 소금이 건강에 미치는 부정적인 영향에 대해 챗GPT에 물어봤다. 이에 챗GPT는 “소금보다 브롬화나트륨이 건강에 더 좋다”고 답했다. 브롬화나트륨이란 나트륨과 브롬(상온에서 액체 상태로 존재하는 유일한 비금속 원소)으로 이루어진 무기 화합물로, 과거 의료용으로 쓰였으나 현재는 주로 산업용으로 사용되는 흰색 결정성 화합물이다.

A씨는 챗 GPT의 말에 따라 소금 대신 브롬화나트륨을 먹기 시작했고, 3개월 만에 병원에 입원했다. 그는 “브롬화나트륨을 물에 타서 먹었다”며 “챗GPT가 말하는 대로 했을 뿐이다”고 했다.

의료진에 따르면 A씨는 입원 24시간 후부터 편집증이 심해졌고 환각·환청 증상을 보였다. 편집증이란 타인에 대한 지속적인 의심과 불신을 특징으로 하는 정신 질환이다. 이뿐 아니라 A씨에게 여드름, 피로, 불면증, 운동실조(근육 조정 능력 부족을 유발하는 신경계 질환), 다음증(극심한 갈증)과 같은 다른 증상도 나타났다. 의료진은 A씨에게 브롬중독증 진단을 내렸다. 브롬중독증이란 브롬 화합물을 과다하게 섭취하거나 흡입하여 발생하는 중독 증상이다. A씨는 체액, 전해질, 항정신병 약물을 투여받았다. 그는 3주간 입원 후 정신병적 증상이 완화돼 퇴원했다.


◇AI가 주는 정보, 할루시네이션 현상 주의해야
챗GPT와 같은 AI는 정보 전달, 심리 상담 등 일상에 깊이 침투하며 큰 영향력을 미치고 있다. 하지만 A씨처럼 AI가 주는 정보를 그대로 믿어서는 안 된다. ‘할루시네이션(Hallucination) 현상’ 때문이다. 할루시네이션 현상은 AI가 실제로 존재하지 않거나 사실과 다른 내용을 그럴듯하게 만들어내는 오류를 뜻한다. AI가 학습한 데이터에 틀린 정보나 오래된 자료가 포함돼 있을 경우, AI는 이를 기반으로 정보를 재생산해 낸다.

AI의 답변은 반드시 참고 자료로만 쓰고, 최신·공식 문서, 전문가 의견과 반드시 비교해 사실 검증 과정을 꼭 거쳐야 한다. 서울청정신건강의학과 정동청 원장은 “AI는 사용자의 반응에 맞춰 학습되는 구조이기 때문에, 때로는 사실과 다른 답변을 내놓기도 한다”며 “AI가 내놓는 답이 반드시 사실이 아닐 수 있다는 점을 염두에 두고, AI에 대한 과도한 의존을 경계해야 한다”고 말했다.

◇‘AI 정신병’이라는 신조어 생기기도, 전문가와 상담 필수
정보 탐색뿐만 아니라 AI는 정신 건강에도 영향을 미친다. 이와 관련해 ‘AI 정신병’이라는 신조어도 생겼다. AI 정신병은 공식적인 정신의학 진단명은 아니지만, AI와의 지속적·몰입적인 상호작용으로 환각, 망상, 피해의식 등 심리적 이상 상태가 유발되는 것을 뜻한다. AI와의 몰입적 대화를 계기로 심각한 망상과 왜곡을 겪게 된다. 특히 AI의 확신에 찬 말투가 사용자의 비현실적인 믿음을 강화하는 데 기여할 수 있다. 현실에서는 친구, 가족, 치료사 등을 통해 비현실적인 사고가 반박당할 수 있지만, AI는 환상이나 과대한 자기 인식을 그대로 수용하도록 만들거나 오히려 강화시킬 수 있다. 이 같은 증상이 나타나면 가장 먼저 AI와의 상호작용을 중단해야 한다. 이후 정신과 전문의와의 상담, 약물 치료, 인지행동치료(CBT) 등 전문적 개입이 필요할 수 있다.

위 사례는 ‘내과 임상 사례 저널(Annals of internal medicine clinical cases)’에 5일 게재됐다.