[심층-내부고발과 경영혁신] 17. 구글... 유일한 내부고발자이지만 파급 효과 미미
플랫폼 사업자의 입맛에 따라 콘텐츠 차별 가능… Al 성장 잠재력 크지만 디지털 윤리 정립해야 미래 밝아
민진규 대기자
2024-08-06
미국 탐사보도업체인 ‘프로젝트 베리타스(Project Veritas)’는 대기업의 비윤리적인 경영을 집중적으로 보도한다. 취재 영역이 코로나19 백신접종에서부터 정보통신기술(ICT) 기업의 내부윤리까지 대중의 관심을 받을만한 주제를 모두 망라하기 때문에 불편한 시선으로 보는 사람들도 적지 않다.

트위터는 2021년 4월15일 프로젝트 베리타스 창업자인 제임스 오키프의 계정을 영구 정지했다. ‘플랫폼 조작 및 스팸 관련 정책’을 위반했다는 것이 그 이유다. 하지만 일론 머스크가 트위터를 인수한 이후인 2022년 11월21일 오키프의 계정은 부활됐다.

ICT업계의 공룡인 구글의 비윤리적인 행태를 파악한 자크 보르히스(Zach Vorheis)가 내부고발 동반자로 선택한 언론이 바로 프로젝트 베리타스다.

워싱턴포스트·뉴욕타임즈 등과 같은 기존 언론은 구글의 영향력에서 자유롭지 못하다고 판단했기 때문이다. 구글의 유일한 내부고발자로 지칭되는 보르히스의 내부고발에 대해 알아보자.


▲ 구글의 내부고발 진행 내역 [출처=국가정보전략연구소(iNIS)]
 

◇ 유일한 내부고발자이지만 파급 효과 미미

세계 최대 규모의 인터넷 제국을 건설한 구글과 싸우고 있는 보르히스는 2021년 7월 자신이 파악한 구글의 내부 정보를 포함해 ‘구글 폭로(Google Leaks)'라는 책을 출간했다.

책의 내용은 구글이 정치적으로 편향됐으며 자체적으로 개발한 인공지능(AI) 기술을 잘못 활용하고 있다는 것이다. 보르히스의 내부고발 과정을 간략하게 정리하면 다음과 같다.

우선 보르히스가 구글의 경영정책이 정치적으로 편향됐다고 판단한 계기는 2016년 11월경으로 거슬러 올라간다. 미국 대통령에 공화당 후보인 도널드 트럼프가 당선되면서 진보 진영은 망연자실해졌다. 반이민정책과 ‘미국 우선주의’와 같은 트럼프의 공약이 그동안 미국이 추구하던 가치와 정반대라고 생각했기 때문이다.

구글의 경영진도 트럼프의 당선이 외국인에 대한 혐오와 증오의 승리라고 비난하며 대책을 마련해야 한다고 판단했다.

특히 트럼프의 당선에 언론의 오보와 가짜 뉴스가 결정적으로 기여했다고 판단해 가짜 뉴스를 퇴출하기 위해 인공지능(AI)을 활용해야 한다는 내부 목소리가 높아졌다.

다음으로 구글은 2020년 10월부터 유튜브에 있는 가까 뉴스 채널을 삭제한 이른바 ‘디지털 윤리 청소’를 단행했다. 당시 퇴출된 채널 대부분이 트럼프를 지지하는 채널이었다는 것이 보르히스의 주장이다. 구글은 모든 사용자에게 안전한 공간을 만들기 위해 커뮤니티 가이드를 위반한 콘텐츠를 삭제했다고 반박했다.

유튜브가 채널을 폐쇄하는 3가지 이유는 △콘텐츠 형태와 관계없이 커뮤니티 가이드 또는 서비스 약관을 반복적으로 위반(악의적이거나 증오심을 조장하거나 인신 공격성 동영상 또는 댓글을 반복적으로 게시하는 경우) △1회 이상 심각한 서비스 악용(약탈적 행위, 스팸 또는 음란물 등) △정책을 위반하는 콘텐츠(증오심 표현, 명의 도용 등)를 주로 게시 등이다.

마지막으로 보르히스는 구글의 채널 삭제 조치에 대항해 투쟁하는 중이다. 2020년 10월 크라우드 펀딩 사이트인 코펀드미(GoFundMe)에서 소송비를 마련해 해당 채널을 복구하라는 소송을 제기했다. 하지만 곧바로 긴급 가처분은 기각을 당했다. 항소했지만 받아들여질 가능성도 낮다.

보르히스는 2021년 3월 프로젝트 베리타스와 인터뷰하며 각종 의혹을 추가했다. 이어서 동년 7월 자신이 구글에서 쌓은 경험과 정책에 관한 의견을 포함한 책을 출간했다. 구글의 유일한 내부고발자라는 호칭과 어울리지 않게 책은 흥행에 실패했다.

디지털 윤리(Digital Ethics)라는 용어조차 익숙하지 않은 우리나라에서 이 책에 관심을 가진 독자가 많지 않아 번역서도 출간되지 않았다. 내부고발 자체가 불법행위보다 정치적 이슈와 관련됐다는 점도 성공 가능성을 낮췄다. 

◇ 디지털 윤리에 대한 논의 통해 정치 편향 해결 필요

트럼프 전 대통령은 비주류 정치인임에도 사회관계망서비스(SNS)를 적극 활용하며 정치적 기반을 쌓아 대통령에 당선됐다. 극우의 정치 논리를 대변하며 백인 남성과 중장년층의 지지를 이끌어냈지만 지지층의 외연을 넓히지는 못했다. 구글의 내부고발이 주는 사회적 시사점은 다음과 같다.

첫째, 구글 경영진이 자신들의 정치성향을 회사의 경영정책을 수립하는데 반영해도 되는지 여부다. 구글 경영진은 진보적인 정치성향을 갖고 있으며 공화당보다 민주당을 지지한다. 구글뿐 아니라 실리콘밸리에 있는 ICT기업 경영진 대부분은 진보에 속한다.

보수의 주장 중 일부 내용을 가짜 뉴스라고 판단해 삭제하면서 논란이 촉발됐다. 미국의 대통령은 4년마다 민주적인 절차를 거친 선거를 통해 결정되기 때문에 구글과 같은 막강한 영향을 가진 ICT기업이 개입해서는 안 된다는 것이 보르히스가 내부고발을 단행한 논리다.

하지만 미국 언론사나 대기업도 정치성향을 적나라하게 드러내고 지지후보를 밝히기 때문에 구글이 거대 기업이라는 이유로 예외라는 주장은 맞지 않다는 것이 전문가들의 견해다. 경영진은 주주로부터 실적을 평가받고 있으며 사용자의 니즈를 충족하기 위해 노력하기 때문이다.

둘째, 구글이 플랫폼에 올라온 게시물이 자사 서비스정책에 부합하지 않는다는 이유로 검열하는 것은 바람직하지 않다는 주장이다.

비판론자는 콘텐츠를 규제할 수 있다는 약관을 미리 공개했으며 약관에 동의하지 않으면 서비스에 가입하지 않으면 된다는 논리로 반박한다.

유튜브 뿐만 아니라 트위터·메타 플랫폼도 사용자를 규제하는 정책을 갖고 있다. 2020년 5월26일 트위터는 트럼프 대통령의 계정에 팩트 체크 버튼을 붙였다.

트럼프가 ‘대선 우편투표(mail-in ballots)가 선거 조작으로 이어질 수 있다’는 트윗을 날렸기 때문이다. 팩트 체크가 필요하다는 것은 주장이 거짓일 가능성이 높다는 의미다.

트럼프는 ‘언론 자유를 억압한다’는 주장을 펼쳤지만 받아들여지지 않았다. 트위터·페이스북·유튜브 등 SNS는 엄밀하게 언론이 아니며 SNS는 자신들이 발행·방송하는 내용에 대해 책임을 져야 하는 신문사·방송사·출판사와 달리 플랫폼에 게재된 콘텐츠의 법적 책임에서 자유롭다.

문제는 가짜 뉴스에 대한 법적 책임을 부담할 필요가 없는데도 엄격한 서비스 정책을 유지한다는 점이다. 하지만 대부분의 전문가는 사용자를 보호해 서비스를 활성화시키기 위한다는 목적에 동의한다.

미국 통신품위법(Communication Decency Act·CDA) 230조는 SNS 기업에 이용자가 올린 게시물에 관한 법적 책임을 면제해 준다.

셋째, 가짜 뉴스와 증오 발언을 필터링하기 위해 개발된 머신러닝과 같은 AI 기술의 용도에 관한 논란이다. 보르히스는 AI를 사회 정의를 구현하기 위해 사용하면 ‘공정’하지만 정치 개입은 공정하지 않다는 주장을 펼친다.

우리나라에서도 네이버·다음과 같은 포탈이 정치 관련 뉴스를 편향적으로 편집한다는 논란이 자주 제기되고 있다. 가짜 뉴스와 혐오 발언의 용어를 명확하게 정의하기 어려운 점도 정치권과 포탈의 갈등을 부추긴다. 어느 나라를 막론하고 정치인은 항상 아전인수식으로 뉴스를 소비하며 상대 진영을 공격한다.

AI가 공정성을 스스로 판단할 수 있을 정도로 개발되지 않은 점도 논란을 가중시킨다. 트럼프가 반이민정책을 추진하며 내세운 근거가 논리적 비약에서 출발했다는 비판도 겸허하게 수용해야 한다. 그렇다고 구글의 AI 개발자가 공정을 판단한 합리적인 기준을 갖고 있다고 믿기 어렵다.

넷째, 구글이 개발한 AI가 디지털 윤리를 준수하고 있는지 여부다. 2016년 구글 딥마인드가 개발한 알파고(AlphaGo)가 우리나라 이세돌 9단과 대결해 4 대 1로 승리하며 AI의 성장 가능성에 대한 기대감이 커졌다. 인간의 두뇌를 뛰어넘어 감정까지 가진 AI가 나올 수 있기 때문이다.

구글의 AI는 △잘못된 언어 학습의 위험 △악용될 여지 △감정을 표현할 능력 보유 등과 같은 부작용이 예견되고 있다. 머신러닝 자체가 다량의 데이터를 통해 학습해야 하는데 인종·성차별 등과 관련된 데이터가 섞일 가능성이 높다.

또한 가짜 뉴스를 찾아낼 수 있을 뿐만 아니라 가짜 뉴스를 만들어 유포하는데 활용될 여지도 충분하다. 챗봇(chat bot)에 사용되는 람다(Language Models for Dialogue Application·LaMDA)는 인간과 같이 감정을 표현할 능력이 있다는 주장마저 제기됐다. AI의 활용 용도에 따라 ‘학대’인지를 판별하는 윤리적 이슈가 검토돼야 하는 이유다. 

- 계속 -

▲ 민진규 국가정보전략연구소 소장 [출처=iNIS]


*칼럼 내용 문의 : 민진규 국가정보전략연구소 소장(stmin@hotmail.com )
저작권자 © 엠아이앤뉴스, 무단전재 및 재배포 금지
관련 기사
산업 분류 내의 이전기사