메뉴 건너뛰기

close

지난해 12월 23일 과학기술정보통신부와 정보통신정책연구원은 대통령 직속 4차산업혁명위원회 전체회의에서 '인공지능(AI) 윤리기준'을 제시했다. 

지난 17일 더불어민주당 미디어 혁신 특별위원회는 3대 언론 개혁 법안을 제안하며 그 안에 포털뉴스 편집권 제한을 포함했다. 

인공지능 윤리기준과 언론 개혁을 위한 포털뉴스 알고리즘 사이에 어떤 관계가 있을까? 통상적으로 기술 혁신의 대가는 사회적 부작용이다. 이런 이유로 기술이 먼저 발전하고 다음에 관련 윤리가 따라오기 마련이다. 

예를 들어, 근래에 유전자 편집 기술의 발전으로 인해 유전자 조작 식품 논란, 맞춤 아기 논란, 유전자 풀 오염 가능성, 생태계 혼란 등 많은 문제가 불거졌다. 그러자 2015년 데이비드 볼티모어 박사를 비롯해 여러 과학자가 유전자 편집에 관련된 쟁점들을 논의하며 이에 관해 논의하는 포럼을 만들고 관련 국제적 대표 회의체를 소집하자고 요구했다. 심지어 2016년 3월에 에드워드 란피어 교수 등은 <네이처>지에 <인간 생식 계열 편집을 멈춰라(Don't edit the human germ line)> 사설에서 인간 유전체 편집에 대한 연구를 전면적으로 중지하자고 주장했다. 이때부터 유관 정부 기관들과 학계가 모여 일련의 유전자 편집에 관한 연구 윤리의 기준과 원칙을 제시하고 있다. 

생물학적인 기술은 인간 자신을 비롯한 생물체를 대상으로 하기에 위험성과 문제점을 인지하기 쉬운 편이다. 그러나 인공지능 알고리즘처럼 추상적인 수학적 연산 체계인 경우에는 그렇지 아니하다. 수학의 객관성에 대한 사람들의 신뢰가 종교적인 신앙처럼 대단히 강력하기 때문이다. 

이번에 언론 개혁 법안으로 제기된 포털의 뉴스 알고리즘의 위험성과 해악성에 대해 인지하기는 매우 어렵다. 그렇지만 인공지능에 사용되는 수학적 모형과 알고리즘은 사회적 흉기이자 심지어 대량살상무기가 될 수 있다는 점을 간과해서는 안 된다. 

객관성이 사회적 중립성? 

객관성이라는 옷이 사회적 중립성을 의미하지 않는다. 오히려 심한 차별과 불평등의 원천이 될 수 있다. 캐시 오닐이라는 수학자는 월가의 한 금융회사에서 일하며 수학이 금융과 만났을 때 사회적으로 끔찍한 일이 벌어지는 것을 깨달으며 <대량살상수학무기>라는 책을 통해 알고리즘의 사회적 위험성을 대량살상무기에 비유한다. 

실제로 4차산업혁명위원회는 위 보고서에서 인공지능 기술의 오남용과 알고리즘에 의한 차별을 심각한 문제로 거론한다. 데이터 편향성의 일례로, 아마존의 인공지능 기반 채용시스템이 개발자, 기술직군에 대부분 남성만을 추천하는 문제가 발생함에 따라 아마존에서 동시스템 사용을 아예 폐기했다. 또한 알고리즘에 의한 차별 사례로, 인공지능 기반 범죄 예측 프로그램인 'COMPAS(콤파스)'의 재범률 예측에서 흑인 범죄자의 재범 가능성을 백인보다 2배 이상 높게 예측하는 편향성이 발견되었다.

MBC 탐사기획보도 <스트레이트>를 통해 국내 언론 최초로 포털 뉴스 알고리즘의 편향성에 대해 문제를 제기했다. 이에 대해 네이버 측은 인공지능이 자율적으로 알아서 하므로 전혀 문제가 되지 않는다는 답변을 내놓았다. 

하지만 알고리즘의 차별성과 데이터 편향성을 제대로 인정하지 않는 무책임한 답변이다. 기계의 기능적 작업이 인간의 가치 평가가 들어가는 판단을 대체한다는 게 말이 되는가? 알고리즘의 기준과 가중치를 정하는 결정 주체는 궁극적으로 사람이기 때문이다. 

<뉴스프리존>의 정현숙 기자에 따르면 '국경없는기자회'와 '로이터저널리즘연구소'가 발표한 세계 주요 40개 국가 중 언론 신뢰도에서 우리나라는 5년째 최하위를 기록했다. 여론조사기관 '리서치뷰'가 5월 27일부터 30일까지 4일간 전국 만 18세 이상 성인 1000명을 대상으로 정기조사에서 국민 10명 중 8명은 언론을 상대로 한 징벌적 손해배상제 도입에 찬성하고 '신뢰도 제고를 위한 언론개혁 필요성'에 '공감한다'에도 10명 중 7명이 공감한다는 결과를 바탕으로 우리나라 언론의 문제점을 지적했다. 

우리나라 언론 신뢰도 꼴찌에 포털의 알고리즘은 전혀 관련이 없는가? 이는 도리어 포털 알고리즘에 언론이 종속된 결과일 것이다.

'인공지능(AI) 윤리기준'의 10대 핵심요건 중 하나인 또한 데이터 관리의 원칙에 따라 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다. 과연 네이버와 다음은 뉴스 품질을 높이기 위해 무슨 노력과 책임을 다했는가? 그런데도 언론 신뢰도 최하위를 기록하고 국민 대다수가 언론 개혁에 찬성하는 사태를 어떻게 설명할 수 있는가? 

또한 공공성의 원칙에 따르면 인공지능은 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 하며 긍정적 사회 변화를 이끄는 방향으로 활용되어야 한다. 과연 지금의 뉴스 알고리즘이 이런 역할을 하고 있는가? 그런데 왜 언론사에 대한 징벌적 손해배상제 도입을 국민 전반이 그토록 갈망하게 되었는가? 

게다가 투명성의 원칙에 따라 사회적 신뢰 형성을 위해 인공지능의 투명성과 설명 가능성을 높여야 한다. 그런데 우리나라 포털은 뉴스 알고리즘과 관련해서 투명성 제고를 위해 어떤 노력을 했는가? 영업비밀을 빌미로 사회적인 투명성을 높이는 노력을 과연 하고 있나? 여기서 불신의 싹이 튼 것이고 이에 대한 책임은 포털에 있다. 

포털이 알고리즘의 객관성과 영업비밀을 이유로 윤리적 책임을 전혀 하고 있지 않기에 이번에 포털 뉴스 알고리즘 제안이 개혁 법안으로 논의되는 것은 늦은 감은 있지만 우리 국회가 해야 할 바람직한 방향이다. 

이제 포털이 더 이상 뉴스 공급에 대한 상업적 자유가 아닌 뉴스를 제공하는 책임 주체가 되고 더 나가 정부와 시민사회의 민주적 통제를 받아야 한다. 알고리즘이라는 객관성의 환상에서 우리 모두 벗어나야 할 때이다. 

지식이 흉기라고 말한 장자의 통찰에서 윤리적으로 검증되지 않는 알고리즘은 우리시대의 대량살상무기임을 인식해야 한다.

태그:#포털뉴스 알고리즘, #대량살상수학무기, #인공지능의 윤리기준, #데이터 편향성, #알고리즘 차별성
댓글
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기

독립연구자로서 정치존재론을 연구하고 있습니다. 장자와 푸코를, 지젝과 원효, 바디우와 나가르주나, 헤겔과 의상 등 동서양 정치존재론의 트랜스크리틱을 시도하고 있습니다. 전에 상지대학교 교양대학에서 인문학과 철학을 강의했습니다.


독자의견

연도별 콘텐츠 보기