714 읽음
AI 저널리즘 신뢰 위기, 다층 투명성 확보가 관건
미디어오늘
지난 2월에는 MBN이 세종호텔 해고노동자 체포 소식을 SNS에 전하며 실제 상황과 전혀 다른 AI 생성 이미지를 사용했다. 당시 현장에서는 노동자들이 압도적인 경찰력에 의해 일방적으로 연행됐다. 그러나 AI 이미지는 노동자들이 격렬히 저항하는 장면처럼 묘사했다.
전세계 뉴스룸이 AI를 뉴스 생산 과정에 도입하면서 저널리즘 신뢰를 흔드는 사례가 잇따르고 있다. 오세욱 선문대학교 미디어커뮤니케이션학부 교수는 지난 9일 한국언론학회의 봄철 정기학술대회 세미나에서 이를 포함한 10가지 사례를 들어 “생성형 AI 기술을 언론 보도에 사용할 때에 일어나는 ‘환각’ 현상”을 언론의 정확성과 신뢰성을 훼손하는 위험으로 꼽았다.
오세욱 교수는 “객관성을 보완하거나 일정 부분 대체할 수 있는 규범적 개념으로서 ‘투명성(transparency)’”이 부상하고 있다고 말했다. “전통적 투명성이 ‘기자’와 ‘취재 과정’을 주 대상으로 했다면, AI 시대의 투명성은 ‘기자·뉴스룸·알고리즘·데이터·학습 과정·이용자’라는 다층적 행위자를 포괄해야 한다”는 지적이다.
오 교수는 “AI의 확산은 뉴스룸 제작 공정을 넘어 저널리즘의 존재론적 기반과 뉴스 이용자의 인식 체계 자체를 재구조화하고 있다”고 진단했다. 그는 “알고리즘 판단이 인간 판단과 구별돼야 함에도 뉴스룸과 이용자 담론은 ‘인간의 주관성은 의심스럽고 대체돼야 하며, 알고리즘은 본질적으로 객관적’이라는 이중의 믿음으로 기울기 쉽다”고 지적했다.

오 교수는 이 자리에서 생성형 AI 활용 과정에서 나타나는 대표적 문제를 △사실성 훼손 및 고지 부족 △저자성(authorship)과 정체성의 위기 △편집권·노동 구조 재편 등 세 가지로 분류했다. ‘사실성 훼손과 고지 부족’의 대표 사례로 미국 주요 일간지인 시카고 선타임스와 필라델피아 인콰이어러가 존재하지 않는 책 10권이 포함된 ‘여름 추천 도서’ 기사를 게재한 사건이 꼽힌다. 생성형 AI가 작성한 내용을 별도 사실 확인 없이 송고한 결과였다.
KBS ‘뉴스9’가 실제 촬영하지 않은 전쟁 장면을 AI 영상으로 재현해 보도한 사례도 언급됐다. 오 교수는 KBS 사례를 두고 “공영방송 내부 가이드라인이 존재함에도 실제 제작 현장에서는 규범이 제대로 작동하지 않을 수 있다는 점을 보여준다”며 “AI 활용 사실에 대한 투명한 고지가 부재할 때 사실성 훼손의 파급력은 더욱 커진다”고 했다.
두 번째 문제로는 저자성과 정체성의 위기가 제시됐다. 미국 로스앤젤레스 소재 스타트업 ‘채널1’의 24시간 AI 뉴스 채널 출범, NBC가 스포츠 중계 음성으로 AI를 활용해 알 마이클스 목소리를 복제한 사례가 거론됐다. 오 교수는 “AI 시대의 저자성 문제는 단순한 표시의 문제가 아니라 전문적 노동의 의미 자체를 재규정하는 문제”라며 “기자의 이름·얼굴·목소리를 통해 구축돼 온 전통적 책임성의 기반을 흔든다”고 말했다.
편집권과 노동 구조, 플랫폼 생태계의 재편 문제도 떠오르고 있다. 허위 추천 도서 기사를 게재한 미국 언론사들은 재정난 속에서 인력 20%를 감축한 상태였다는 점이 화제가 됐다. 오 교수는 “AI 도입이 단순한 기술 실험이 아니라 편집 노동 구조 재편과 맞물려 있음을 보여준다”고 했다. 로스앤젤레스타임스 소유주 패트릭 순시옹이 AI를 활용해 자사 오피니언 기사의 정치 성향을 좌우 5단계로 분류하고, 반대 관점 기사를 함께 노출하도록 한 사례도 소개됐다.
오 교수는 이러한 사례들이 단순한 일탈이 아니라, AI 활용 과정에서 ‘투명성’이 제대로 작동하지 않을 때 나타나는 구조적 현상이라고 분석했다. “전통적 투명성이 기자와 취재 과정을 중심으로 했다면, AI 시대의 투명성은 기자·뉴스룸·알고리즘·데이터·학습 과정·이용자까지 포괄해야 한다”는 진단이다.
콘텐츠·뉴스룸 조직·거버넌스 투명성 확보돼야
오 교수는 투명성을 △콘텐츠의 투명성 △제작 공정의 투명성 △거버넌스의 투명성 등 세 층위로 구분했다. 콘텐츠 차원에서는 AI 활용 비중이 높은 기사일수록 활용 맥락을 상세히 고지해야 한다고 했다. 제작 공정에서는 뉴스룸 내부에서 프롬프트, 소프트웨어 버전, 생성 시각, 참조 자료의 저작권 상태, AI 사용 위치 등을 구조화해 기록하는 방안을 제안했다. 제작 과정의 오류를 최소화하고 사후 검증 가능성을 확보하기 위해서다.
언론사 차원의 AI 거버넌스 필요성도 강조됐다. BBC는 법률·편집정책·정보보안·데이터보호 전문가들이 참여하는 ‘AI 위험 자문 그룹(AIRA)’과 제작 단계별 승인 절차를 갖춘 이중 거버넌스 체계를 운영 중이다.
오 교수는 산업과 공동체 차원의 규범 정비도 필요하다고 했다. 그는 “언론단체 차원의 공통 고지 표준, AI 투명성 자율 인증 체계, 시민과 독자가 오류를 지적하고 검증에 참여할 수 있는 참여형 투명성 채널 제도화가 필요하다”고 말했다.