모든 시민은 기자다

노벨물리학상 받은 'AI 대부'의 경고 "통제불능 걱정"

노벨물리학상 받은 힌턴 교수 "AI가 인류 지배할 수도"

등록|2024.10.09 13:21 수정|2024.10.09 13:21

▲ 존 홉필드와 제프리 힌턴의 노벨 물리학상 수상을 보도하는 영국 BBC 방송 ⓒ BBC


올해 노벨 물리학상 수상자로 '인공지능(AI) 대부'로 불리는 존 홉필드(91)와 제프리 힌턴(76)이 선정됐다.

스웨덴 왕립과학원 노벨위원회는 8일(현지시각) 인공신경망을 이용한 머신러닝(기계학습)의 기반을 발견 및 발명한 공로를 높게 평가했다면서 이들에게 노벨 물리학상을 수여한다고 발표했다.

미국 출신의 홉필드는 미국 프린스턴대, 영국 출신인 힌턴은 캐나다 토론토대 교수로 연구하고 있다. AI 분야에서 노벨상 수상자가 나온 것은 처음이다.

구글 떠난 힌턴 "AI 위험성 경고하기 위해"

노벨위원회는 "우리가 AI에 관해 이야기할 때 인공신경망을 이용한 머신러닝을 의미하는 경우가 보통이다"라며 "이들은 물리학적 도구를 이용해 오늘날 AI와 머신러닝의 혁명으로 이어진 근본적 작업을 수행했다"라고 소개했다.

엘런 문스 노벨 물리학 위원회 의장은 "인공신경망은 인간의 뇌를 구성하는 뉴런(신경세포)에서 영감을 얻은 상호 연결된 컴퓨터 노드"라며 "과학과 의학 전반에 걸쳐 사용되고 있으며 얼굴 인식과 언어 번역 등 우리 일상생활의 일부가 되었다"라고 설명했다.

특히 힌턴 교수는 1970년대 초반 에든버러대에서 대학원생 시절 인간의 뇌를 통해 문제를 처리하는 것과 비슷한 방식으로 컴퓨터가 정보를 분석하는 '인공 신경망' 개념을 제안했다.

그는 2012년 토론토대 교수 시절 그는 제자들과 AI 업체 'DNN 리서치'를 창업해 컴퓨터가 사진을 분석해 사물을 스스로 인식할 수 있는 기술을 만들었다. 이는 생성형 AI '챗GPT'의 탄생에 공헌했다는 평가를 받았고, 2013년 구글이 4천400만 달러(약 593억 원)를 들여 이 업체를 인수했다.

이때 구글로 옮겨 연구를 이어가며 부사장까지 오른 힌턴 교수는 지난해 4월 구글을 떠나 토론토대 교수로 돌아갔다.

그는 구글을 떠난 이유가 AI의 위험성을 경고하기 위함이라고 밝혔다. AI 분야에 엄청난 투자를 구글에서는 AI가 인류에 미칠 나쁜 영향을 자유롭게 고발하기가 어렵기 때문이라는 것이다.

"AI가 인류 불평등 초래"... 보편적 기본 소득 주장

힌턴 교수는 당시 미국 CNN 방송과의 인터뷰에서 "AI가 얼마나 똑똑해지는지에 대한 걱정으로 그 위험성을 내부 고발하기로(blow the whistle) 했다"라며 "AI 같은 것들이 우리를 지배하는 것을 어떻게 막을지 진지하게 걱정해야 한다고 말하고 싶다"라고 밝혔다.

작년 5월 영국 BBC 방송에도 "AI의 능력은 곧 인간을 추월할 것"이라며 "내 생각에는 앞으로 5년에서 20년 안에 AI가 세상을 지배하는 문제가 직면을 확률이 50% 이상"이라고 말했다.

그는 AI가 인류의 불평등에 미치는 영향을 고려해 보편적 기본 소득을 확립해야 한다면서 "AI가 생산성과 부를 증가시키겠지만, 그 돈은 부자들에게 돌아갈 것"이라며 "일자리를 빼앗긴 많은 사람들은 소외될 것"이라고 지적했다.

힌턴 교수는 이날 노벨 물리학상 수상 소감을 말하는 자리에서도 "AI는 '산업혁명'에 비교될 정도로 인류 문명에 막대한 영향을 미칠 것"이라고 전망했다.

아울러 "인류는 지금까지 우리보다 더 똑똑한 것을 갖는 게 어떤 것인지 경험한 적이 없다"라며 "거의 모든 분야에서 훌륭한 일을 할 것이며, 사람들은 AI와 함께하면 같은 일을 하더라도 지금보다 훨씬 적은 시간을 들이게 될 것"이라고 말했다.

그러나 "AI가 통제 불능이 될 위협에 대해서도 걱정해야 한다"라며 "우리보다 더 똑똑한 시스템이 통제권을 장악하게 될 수도 있다"라고 경고했다.

문스 의장도 "AI는 엄청난 이점이 있지만, 급속한 발전으로 인해 우리의 미래에 대한 우려도 제기되고 있다"라며 "인류는 이 새로운 기술을 안전하고 윤리적인 방식으로 사용하여 인류에 가장 큰 이익을 안겨줄 책임이 있다"라고 거들었다.

힌턴 교수는 평소 즐겨 사용하는 AI 도구가 있느냐는 질문에는 "챗GPT-4를 실제로 많이 사용한다. 궁금한 것이 생기면 챗GPT-4에 물어본다"라면서도 "매우 유용하지만 할루시네이션(사실처럼 보이는 거짓 정보 생성) 때문에 완전히 신뢰하지는 않는다"라고 답했다.
원문 기사 보기

주요기사

오마이뉴스를 다양한 채널로 만나보세요.