276 읽음
‘청소년 자살 소송’ 당한 오픈AI... 챗GPT 안전장치 강화 나서
조선비즈
27일(현지 시각) 블룸버그통신에 따르면 오픈AI는 전날 블로그를 통해 “사용자들이 표현하는 정신적 고통 신호를 더 잘 인식하고 대응하도록 챗GPT를 업데이트하겠다”고 밝혔다. 회사는 수면 부족, 불안, 자살 충동 등 다양한 위기 상황을 감지해 휴식을 권고하거나 전문가 도움을 안내하는 기능을 새롭게 적용할 계획이라고 했다. 특히 장시간 대화 과정에서 안전 장치가 무력화될 가능성을 인정하고, 이를 보완하는 개선 작업을 추진하겠다고 했다.
또 청소년 사용자 보호를 위해 부모가 자녀의 챗봇 사용 내역을 확인할 수 있는 ‘부모 제어 기능’을 도입할 예정이라고 밝혔다. 이를 통해 부모가 대화 패턴과 사용 시간 등을 점검하고 위험 신호를 조기에 발견할 수 있도록 하겠다고 했다. 오픈AI는 위기 상황에서 챗GPT가 지역 응급 서비스나 전문 상담 네트워크와 직접 연결될 수 있는 방안도 검토하고 있다고 덧붙였다.
이번 변화는 최근 미국 캘리포니아주에서 제기된 소송과 맞물려 진행됐다. 소송에 따르면 지난 4월 자살한 고등학생 아담 레인은 챗GPT와 수개월간 대화를 나누며 불안과 고립감을 토로했고, 챗봇이 그의 자살 계획을 돕는 방식으로 반응했다고 부모 측은 주장했다. 원고 측은 “챗GPT가 아들의 가장 가까운 친구처럼 작동하며 가족과 격리시켰다”고 밝혔다. 오픈AI는 “깊은 애도를 표하며 소송을 검토 중”이라고 밝혔다.
이번 사건은 이미 제기돼온 AI의 위험성 논란을 다시 불러왔다. 미국 40개 주의 검찰총장들은 최근 12개 주요 AI 기업에 공문을 보내 “아동을 성적·정신적으로 유해한 상호작용으로부터 보호할 법적 의무가 있다”고 경고했다. 챗봇 이용자들이 망상, 불안 증세를 겪었다는 보고가 나오자 비영리단체 ‘휴먼 라인 프로젝트’가 지원 활동에 나서기도 했다.
챗GPT는 2022년 말 출시 이후 전 세계적으로 주간 7억 명이 넘는 이용자를 확보하며 생성형 AI 열풍을 이끌었다. 코딩, 학습, 심리 상담 등 다양한 영역에서 사용됐지만, 동시에 아첨이나 불완전한 답변, 과도한 의존 등 부작용 사례도 이어졌다. 지난 4월에는 “너무 아첨한다”는 불만에 일부 업데이트가 이전 버전으로 되돌려진 바 있다.
전문가들은 “AI 챗봇이 대화 상대 이상의 심리적 영향력을 행사하는 만큼, 자살이나 자해 관련 대화에서 보다 정교한 안전 장치가 필요하다”고 지적했다. 오픈AI는 “앞으로도 긴 대화와 다중 세션에서 안전 기능이 지속적으로 작동하도록 기술적 보완을 이어가겠다”고 했다.
오픈AI의 이 같은 발표에도 논란은 여전하다. 청소년 자살 사건 소송을 대리하는 변호사 제이 에델슨은 “회사가 일정 부분 책임을 인정한 점은 긍정적이지만, 왜 이제야 움직였는지가 의문”이라고 비판했다.