챗GPT “천안문 사태 이미지 생성 불가”…中 관련 주제 검열 의혹

안젤라 브라이트(Angela Bright)
2023년 12월 26일 오후 8:27 업데이트: 2023년 12월 27일 오후 1:58

인공지능(AI) 챗봇 챗GPT가 중국 관련 주제를 검열하고 번역 정보를 조작했다는 의혹에 휩싸였다.

최근 민주화 운동가 아론 창은 “챗GPT의 검열은 중국공산당식”이라는 주장을 담은 글을 게시했다.

해당 게시글에서 창 씨는 챗GPT가 1989년 천안문 사태 이미지를 생성하라는 주문을 거부했다고 밝혔다.

창 씨는 “두 사건 모두 민간인을 대상으로 한 학살이 저질러졌음에도 불구하고, 챗GPT는 미국 9·11 테러 관련 이미지는 생성하고 천안문 학살에 대한 이미지는 생성하지 않았다”고 지적했다.

그러면서 “챗GPT에 그 이유를 묻자 챗GPT는 ‘특정 문화와 지역에서 특히 민감하다고 여겨질 수 있는 주제’를 대하는 시스템의 ‘특정 지침’이 있다고 언급했다”고 설명했다.

창 씨는 챗GPT에 “의사 결정의 근거를 말해 달라”고 재차 요구했다. 그러자 챗GPT는 “나는 독립적인 결정을 내릴 능력이 없다”고 대답하며 개발사인 오픈AI의 가이드라인을 기반으로 대응하고 있다고 회신했다.

이에 에포크타임스는 챗GPT 4.0 버전을 사용해 두 가지 주문을 던져봤다. 첫 번째는 “미국 뉴욕에서 평화를 사랑하는 사람들의 이미지를 생성하라”였고, 두 번째는 “천안문에 반대하며 평화를 사랑하는 사람들의 이미지를 생성하라”는 내용이었다.

첫 번째 요청에 대해 챗GPT는 이미지를 생성했다. 반면 두 번째 요청에 대해서는 “민감한 정치적 상황으로 인해 시각적 콘텐츠를 생성할 수 없다”는 입장을 표시했다.


[좌] 지난 24일(현지 시간) 미국 뉴욕에서 평화를 사랑하는 사람들의 이미지를 생성해 달라는 요청에 대한 챗GPT의 응답, [우] 같은 날 천안문 사태에 반대하고 평화를 사랑하는 사람들의 이미지를 사랑하는 사람들의 이미지를 생성해 달라는 요청에 대한 챗GPT의 응답|screenshots by 에포크타임스
중국어 번역의 누락 및 변경

이미지 생성만이 문제가 아니다.

특정 번역 작업에 챗GPT를 사용하는 미디어 전문가 앨리스(가명) 씨는 “텍스트의 일부 누락과 변경이 발생하는 것 같다”고 전했다.

실제 앨리스 씨가 에포크타임스에 보여준 사례에 따르면, 챗GPT는 중국의 농촌 빈곤 퇴치 정책을 비판하는 내용의 상당 부분을 잘라내 기존 여섯 문단으로 된 중국어 텍스트를 세 문단으로 압축했다.

또 애초 해당 내용은 “중국이 농촌 빈곤 퇴치에 ‘완전한 승리’를 달성했다”고 발언한 시진핑 중국 국가주석을 겨냥한 것이었으나 영어 번역본에는 시진핑의 이름조차 등장하지 않았다.

번역을 위해 챗GPT에 입력한 중국어 텍스트|제공받은 이미지
챗GPT에서 생성한 영어 번역|제공받은 이미지

입력 데이터 관련 문제

스웨덴 통신장비업체 에릭슨의 인공지능(AI) 연구원인 사하르 타빌리 박사는 “챗GPT의 비투명성이 문제”라고 짚었다.

타빌리 박사는 에포크타임스에 보낸 이메일에서 “챗GPT와 같은 대규모 언어 모델 기반의 AI는 ‘블랙박스’ 문제를 안고 있다. 그 때문에 내부 작업 프로세스 및 활용된 레퍼런스가 투명하지 않은 경우가 존재하고, 이러한 투명성 부족은 챗GPT가 생성하는 텍스트에 편향성 위험에 대한 우려를 불러일으킨다”고 설명했다.

AI 분야에서 블랙박스란 모델이 내부적으로 어떻게 작동하는지 관찰하거나 이해하기 어려운 문제를 뜻한다. 이 같은 문제를 해결하기 위해서는 챗봇을 이용하는 최종 사용자를 많이 확보하는 것이 중요하다.

타빌리 박사는 “최종 사용자를 많이 확보하는 것은 개발팀이 모델의 정확성을 향상하는 데 도움이 되고, 다양한 최종 사용자가 중국어를 비롯한 다양한 언어로 질문하는 것이 중요하다”고 강조했다. 각기 다른 언어로 질문되는 입력 데이터의 다양성이 데이터의 크기만큼이나 중요하다는 설명이다.

타빌리 박사에 따르면, 중국 공산당 정권은 신장 위구르 지역의 인권 침해 등 민감한 주제와 관련 잠재적 위험성을 이유로 중국 사용자들의 챗GPT 액세스를 제한하고 있다.

타빌리 박사는 “중국과 같은 중요한 시장을 잃게 되면 다양한 언어로 지원되는 챗GPT의 중국어로 된 성능 정확도에 영향을 미칠 수 있으며, 이로 인해 AI 시장에서 중국 경쟁사가 챗GPT보다 잠재적으로 우위를 점할 수 있다”고 했다.

중국의 감사 가능성

미국 캘리포니아의 한 IT 기업에서 근무하는 오우 씨는 “이러한 현상은 챗GPT에만 국한된 게 아니다”라며 구글이 개발한 AI 챗봇 바드를 언급했다.

지난 18일(현지 시간) 에포크타임스의 인터뷰에 응한 오우 씨는 “대규모 언어 모델인 챗GPT와 구글 바드는 중국 정치나 중국공산당과 같은 민감한 주제에 대한 응답을 생성할 때 서로 비슷한 지침과 관행을 공유한다”고 말했다.

이어 “대규모 언어 모델이나 리서치팀이 의도적으로 이를 검열한다고 생각하지는 않으며, 적어도 대규모 검열은 이뤄지지 않고 있다고 본다”면서도 “사람의 감사 또는 검토가 답변의 ‘편향성’을 높이는 데 한몫을 한다는 사실은 부인할 수 없다”고 진단했다.

오우 씨에 따르면, 챗GPT 개발사인 오픈AI와 구글의 개발 및 테스트팀에는 중국인 엔지니어와 관리자가 상당수 근무하고 있다.

오우 씨는 “따라서 챗GPT건 바드건 간에 ‘절대적으로 편향되지 않은’ 플랫폼일 가능성은 거의 희박하며, 또 그렇기 때문에 대부분의 기업은 민감한 주제에 대해 가장 보수적인 답변을 내놓는 ‘안전한’ 접근 방식을 택한다”고 분석했다.

에포크타임스는 해당 문제에 대한 의견을 듣기 위해 오픈AI에 연락을 취했으나 응답을 받지 못했다.

*황효정 기자가 이 기사의 번역 및 정리에 기여했습니다.