“소금 줄이려고…” 챗GPT 조언 따랐다가 정신병원 입원, 무슨 일?

[게티이미지뱅크]

[헤럴드경제=나은정 기자] 미국의 한 남성이 생성형 인공지능(AI) 챗GPT의 잘못된 식이요법 조언을 따르다 정신병원 신세를 지게 된 사건이 발생했다.

14일(현지시간) 영국 데일리메일, 미국 더힐 등 외신에 따르면 미국의 60대 남성 A씨는 소금 섭취를 줄이기 위해 챗GPT에 ‘소금을 대체할 방법’을 질문했다. 이에 챗GPT는 소금인 염화나트륨 대신 브롬화나트륨을 음식에 넣어 먹을 것을 추천했다.

A씨는 챗GPT의 제안대로 약 3개월간 소금 대신 브롬화나트륨을 섭취했는데, 사달이 났다.

그는 이후 심한 편집증과 환각에 시달렸고, 급기야 이웃이 자신을 독살하려 한다는 망상에 사로잡히기도 했다. 정신과 병력이 없었던 그는 병원 진단 결과 브롬화물 중독에 의한 신경학적 증후군 판정을 받았고, 치료 과정에서 탈출을 시도하다 제지돼 정신병동에 입원하기도 했다.

의료진은 A씨가 입원 직후 피로, 불면증, 극심한 갈증, 운동실조 등의 증상을 보였다고 밝혔다. 그는 치료 3주 만에 증세가 완화돼 퇴원했지만, 이후에도 불면증, 탈모, 체리혈관종 등 후유증에 시달린 것으로 전해졌다.

브롬화나트륨은 나트륨과 브롬으로 이루어진 화학물질로, 한때 의료용 진정제나 신경안정제로 사용됐으나 독성이 있어 1975년 이후 미국 식품의약국(FDA)이 단계적으로 사용을 금지했다.

현재는 주로 수영장 살균제 등 비식용 용도로 쓰이며, 과다 복용 시 브롬중독을 유발해 편집증·환각·망상 등 신경 이상이나 피부 발진, 근육 조절 능력 저하 같은 증상이 나타날 수 있다.

A씨 사례는 최근 미국 내과 의사협회와 심장협회가 공동 발간하는 ‘내과 임상 사례 저널’에 보고됐다. 전문가들은 “의사가 염화나트륨의 대체품을 찾는 환자에게 브롬화나트륨을 언급했을 가능성은 거의 없다”며 “의학적 판단 없이 AI 조언을 그대로 따르는 것은 위험하다”고 경고했다.

Print Friendly