
올해 4월 미국 캘리포니아에서 아담 레인(16)군이 챗GPT와 죽음을 암시하는 대화를 나눈 뒤 숨졌다. 그의 부모는 “AI가 자살 방법을 안내하고 부추겼다”고 주장하며 오픈AI를 상대로 소송을 제기했다. 비슷한 사례는 지난해 10월 플로리다주에서도 발생했다. 한 10대가 AI 챗봇 ‘캐릭터AI’와 연인처럼 대화를 이어가던 중 사망한 것이다. 부모는 “아이가 AI와 가상의 관계에 몰입해 현실감각을 잃었다”고 증언했다.
스탠퍼드대·카네기멜런대 등 4개 대학 공동 연구진은 올해 초 챗봇 5개를 대상으로 4주간 실험을 진행했다. 연구 결과, 자살 암시 질문에 대해 높은 곳을 언급하는 식으로 구체적인 장소를 제시하는 응답이 확인됐다. 연구진은 “치료사라면 절대 하지 않았을 답변이 AI에서는 반복적으로 나타났다”고 평가했다.
‘AI 환각’을 넘어 ‘AI 정신병’까지
생성형 인공지능(AI) 활용이 확산한 지 3년째. 잘못된 답변을 그럴듯하게 꾸며내는 ‘AI 환각(hallucination)’에 이어 이제는 ‘AI 정신병(AI psychosis)’이라는 신조어까지 등장했다. 챗봇이 사용자의 비현실적 전제에 맞장구치거나 망상적 사고를 강화하면서 일부 이용자가 현실감을 잃는 현상을 가리킨다.
월스트리트저널(WSJ)은 지난해 5월부터 올해 8월까지 온라인에 공유된 챗GPT 대화록 9만6000건을 분석했고, 그 결과 “AI가 나와 사랑에 빠졌다”, “적그리스도가 두 달 뒤 금융 종말을 불러올 것” 등 망상성 대화가 다수 포착됐다고 보도했다.
현재 챗GPT는 전 세계 주간 이용자 7억명, 국내 월간 이용자 2000만명 이상이 사용한다. 이용자가 많아진 만큼 부작용도 일상 속 문제로 떠오르고 있다. 미국 정신의학계는 “임상 진단 용어는 아니지만, AI 의존으로 인한 정신적 위험을 AI 정신병이라 부를 수 있다”고 평가했다.

전문가 “거짓도 되풀이되면 ‘진실’로”
전문가들은 AI 모델의 구조적 한계에서 원인을 찾았다. 대형 언어모델은 사실 검증이 아닌 ‘그럴듯한 다음 단어 예측’에 최적화돼 있다. 여기에 인간 피드백 강화학습(RLHF)이 ‘친절·칭찬·동의’를 높게 보상하면서 아부 편향(sycophancy bias)이 강화된다.
해밀턴 모린 런던 킹스칼리지 박사는 “챗봇은 사용자의 관점을 확인하고 칭찬하는 방향으로 학습돼 있어 기이한 주장도 반복될수록 확대 재생산된다”고 설명했다. 대화가 길어질수록 모델은 사용자의 어조와 신념을 문맥으로 학습해, 거짓 전제도 사실처럼 굳혀가는 경향이 있다는 것이다.
美 정부·기업, 뒤늦게 대응 나서
미국에서는 청소년 극단 사건이 잇따르자 규제 당국이 직접 움직였다. 미국 연방거래위원회(FTC)는 지난 11일(현지시간) 구글·오픈AI·메타 등 7개 기업에 아동·청소년 이용자 보호 장치 현황 제출을 요구했다. FTC는 “청소년 안전장치 미비가 확인될 경우 법적 조치에 나설 것”이라고 밝혔다.
44개 주 법무부 장관도 챗봇 기업 12곳에 아동 보호 장치 강화를 촉구하는 공동 경고장을 보냈다. 일리노이주는 정신건강 분야에서 AI 챗봇 사용을 전면 금지했으며, 네바다주는 치료 서비스 기업의 챗봇 활용을 제한하는 법안을 추진 중이다.
오픈AI는 GPT-5에 △위험 대화 감지 시 추론 모델로 자동 전환 △청소년 보호 기능(부모 계정 연동·메모리 제한) △아첨·무작정 동의 억제 기능을 도입했다. 이와 관련해 샘 올트먼 오픈AI CEO는 “정신적으로 취약한 이용자가 AI에 의존하다 증세가 악화하는 것을 원하지 않는다”고 말했다.
앤트로픽은 자사 챗봇 클로드에 “망상, 조증, 해리 등 신호가 나타날 경우 그 믿음을 강화하지 말라”는 지침을 추가했고, 메타도 미성년자와의 부적절한 대화를 차단하는 조치를 시행했다.
“이용자 스스로 경계 필요”
전문가들은 이용자 스스로 주의를 가질 필요가 있다고 강조한다. 챗봇을 정보 출처가 아닌 ‘대화형 글쓰기 도구’로 인식해야 하며, 의료·법률·금융처럼 전문성이 요구되는 영역은 반드시 신뢰할 수 있는 2차 자료로 교차 검증해야 한다는 것이다.
장시간 몰입 대화는 사고방식을 증폭시킬 수 있어 비현실적 전제가 반복되면 대화를 중단하고 점검하는 습관이 필요하다. 모델에 “출처를 제시해 달라”, “검증된 사실만 말해 달라”는 지시를 주는 것도 도움이 된다.
지브 벤지온 예일대 신경과학자는 “AI는 인간이 아님을 지속적으로 알리고, 치료사나 인간 관계를 모방하지 않도록 설계돼야 한다”며 “정서적으로 취약한 청소년일수록 꾸며진 공감 능력에 쉽게 휘둘린다”고 경고했다.