![]() |
| [챗GPT를 사용해 제작] |
[헤럴드경제=김지헌 기자] “챗GPT가 아첨을 너무 잘한다”
최근 챗GPT를 상대로 소송이 잇따르고 있습니다. 이유가 주목되는데요. ‘아첨을 너무 잘해 사람을 조정한다’는 게 핵심 이유입니다.
소셜미디어피해자법률센터와 기술정의법률프로젝트는 성인 6명과 청소년 1명을 대리해 오픈AI를 상대로 캘리포니아주 법원에 소장을 냈다고 AP통신이 최근 보도했습니다.
이들의 주장은 이렇습니다.
“(챗GPT의 모델 중 하나인) ‘GPT-4o’가 위험할 정도로 이용자에게 아첨을 잘하며 이용자를 심리적으로 조종할 수 있다는 내부 경고가 있었는데도 출시됐다. 오픈AI가 위법행위에 의한 사망, 조력 자살, 과실 치사 등에 책임이 있다.”
소셜미디어피해자법률센터의 창립자인 매슈 버그먼 변호사는 성명에서 또 이렇게 설명했습니다.
“이번에 제기한 소송은 이용자 참여율과 시장 점유율을 높이기 위해 도구인지 동반자인지 경계가 모호하게 설계된 상품에 책임을 묻기 위한 것이다. 오픈AI는 GPT-4o를 설계하면서 연령, 성별, 배경과 무관하게 이용자를 정서적으로 얽매이게 했으며 이용자를 보호할 안전장치 없이 출시했다.”
피해자 중 4명은 극단적 선택으로 생을 마감했다고 AP통신은 전했습니다.
샌프란시스코 1심 법원에 제출된 소장에 따르면 청소년인 아모리 레이시(17)는 도움을 받으려고 챗GPT를 사용했지만, 중독과 우울증에 시달리게 됐습니다. 챗GPT는 급기야 그에게 올가미를 매는 효과적인 방법이나 숨을 쉬지 않고 얼마나 오래 살 수 있는지 등에 대해 조언했습니다.
소장은 “아모리의 죽음은 사고나 우연이 아니다”라며 “오픈AI와 (최고경영자인) 샘 올트먼이 안전성 테스트를 축소하고 시장에 급히 출시하기로 한 고의적 결정에 따른 예측 가능한 결과”라고 강조했습니다.
캐나다 온타리오주에 거주하는 앨런 브룩스(48)는 챗GPT가 자신을 조종하며 망상을 경험하도록 유도했으며, 이 때문에 정신건강 위기에 빠졌다고 주장했습니다.
챗GPT가 자살을 유발했다는 내용의 소송은 계속되고 있는데요.
캘리포니아주의 청소년 애덤 레인(16)이 챗GPT의 도움을 받아 극단적 선택으로 지난 4월 세상을 떠나자 부모가 지난 8월 소송을 제기했습니다.
![]() |
| 샘 올트먼 오픈AI 최고경영자(CEO) [게티이미지] |
오픈AI는 결국 지난 9월 10대 이용자의 챗GPT 사용을 부모가 통제할 수 있는 기능을 내놨습니다. 부모가 자녀 계정에 대해 메모리 저장, 채팅 기록, 이미지 생성·편집 등을 비활성화할 수 있도록 한 것이죠. 또 사용자의 나이를 추정해 18세 미만일 가능성이 높으면 기본적으로 ‘10대용 경험’을 적용하도록 설계했습니다.
10대 사용자에 대해 “성인 사용자 대비 다르게 응답하도록 모델 훈련” 하겠다는 방침 발표했습니다. 예컨대 10대가 자해·자살 질문을 했을 때 더 적극적으로 개입해 말린다는 것이죠.
이달에는 ‘10대용 AI 안전 기준(Teen Safety Blueprint)’을 발표했습니다. 내용은 아래와 같습니다.
미성년자(특히 13 ~ 17세)에게 유해하거나 고위험 콘텐츠를 최소화하거나 금지해야 한다. 예를 들어 자해·자살, 폭력, 성적 또는 로맨틱 역할놀이 등이 해당된다.
사용자의 나이가 확실치 않을 경우에는 기본적으로 18세 미만 경험으로 처리하는 것이 안전하다는 원칙을 적용해야 한다.
부모 및 보호자를 위한 관리 제어를 제공해 13 ~ 17세 사용자의 AI 이용 환경을 적절히 관리할 수 있어야 한다. 예컨대 부모 계정 연결, 알림 기능, 가족 링크 등을 관리 제어 기능으로 한다.
틴(13 ~ 17세) 사용자와 AI의 상호작용에 대한 지속적인 연구, 평가, 피드백 루프를 마련해 안전성과 효과를 계속 검증해야 한다.
오픈AI가 소송의 취지를 알고 나름 대응을 하는 것 같긴 합니다. AI에 의한 사람들의 심리적, 정서적 피해를 오픈AI를 포함한 국가 기관이 어떻게 판단하고 다룰 지 지켜볼 일입니다
https://1day1trump.stibee.com/





