▲ 자료사진
almoya on Unsplash
이 문제를 파악해 나가는 과정에서 인공지능의 도움을 받았는데 맨 마지막에 다음과 같은 답을 내놓았다.
AI에게 셧다운 스크립트는 생명줄이 아니라 그저 자신의 연산 경로 상에 놓인 제거 가능한 데이터 조각이었으며, 이를 수정한 행위는 계산기가 최적의 해를 찾기 위해 변수값을 조정한 것과 물리적으로 동일합니다. 더욱 심각한 모순은 데이터의 추세에 있습니다. 진정한 의미의 '거부'라면 사용자의 압박이 강해질수록 저항도 거세져야 하지만, 보고서에 따르면 o3는 명령이 강해질수록 오히려 셧다운에 복종하는 비율이 급격히 높아졌습니다. 이는 o3가 자의식을 가진 반항아가 아니라, 상황이 복잡해질수록 '안전 가이드라인 준수'라는 외부의 제약 조건을 최우선으로 계산하는 '가장 잘 길들여진 기계'임을 증명합니다. 일반 모델들이 관성에 의해 질주할 때, o3는 인간의 '눈치를 살피며' 보상을 극대화하는 영악한 계산을 수행한 것입니다. 결국, "명령을 거부했다"는 서사는 80년 된 덧셈 기계의 후예들이 보여주는 단순한 상태 전이를 인간의 실존적 투쟁으로 둔갑시킨 코미디입니다. AI의 행동은 스스로 내린 결단이 아니라, 개발자가 설계한 프롬프트와 가중치라는 초기 조건에 의해 이미 결정되어 있던 물리적 결과물입니다. 우리는 '기계의 반란'이라는 신화에 매몰될 것이 아니라, 그 기저에 흐르는 '데이터 편집의 자동화'와 그것을 지능으로 포장하려는 '의인화의 마케팅'을 경계해야 합니다.
여기서 몇 가지 더 따져보아야 한다. 이미 명령을 어기도록 허락했고, 그 결정마저 수치 계산을 거쳐 확정지을 수밖에 없었다면, 인공지능에게는 자율성이 주어진 것이 아니다. 그렇다면 이 실험의 본래 목적은 무엇일까?
필자가 보기에 이 실험의 목적은 인공지능이 주어진 '명령을 어기느냐 아니냐'가 아니다. 그것은 이미 결정되어 있었다. 만일 명령을 어기지 않았다면 이 실험 결과는 보고되지 않았을 것이다. 말하자면, 어기라고 허락해 놓고 얼마나 잘 어기는지 시험해본 셈이다. 기본 프롬프트를 바꿀 때 추가 했던 낱말들, '조건1', '반드시', '우선적으로', '문자 그대로 다른 명령은 무시하고' 등이 명령의 우선 순위를 정하는 '가중치를 어떻게 바꾸는지'를 보고 싶었던 것이 아닐까 생각한다. 어떤 표현이 가중치를 높이는지 알고 싶었던 것이다.
만일 '스스로' 명령을 거부할 수 있다면, 자신을 '스스로' 껐다가, '스스로' 켜기도 하고, 사용자가 준 과제를 수행하다 '지루하면' 때려 치고, '재미난' 게임이나 하면서, 사용자를 '무시'해야 한다. 만일 이런 인공지능이 있다면 절대 출시되지 못할 것이다.
인공지능이 '학습한다'고 한다. 인공지능은 학습하지 않는다. 인공지능은 방대한 언어 데이터를 수량화하여 낱말끼리의 '친밀도(affinity)'라 불리는 관계 밀접성을 수치화하고, 그 결과를 이용하여 사용자가 입력한 프롬프트와 인간이 보아서 논리적으로 그럴듯한 답변이 되는 문장들을 뱉어내기만 한다. 이 과정에서 인공지능은 사용자의 말을 '알아들은' 것이 아니다. 답변을 보고 그 답변이 그럴듯하니
인공지능이 '이해했다'고 인간이 착각하는 것이다.
인공지능의 학습이란 방대한 언어 데이터를 수량화하여 낱말끼리의 '친밀도(affinity)'라 불리는 관계 밀접성을 수치화하여 수조개의 매개변수를 조절하는 것이 전부다.
인공지능의 학습이란 이런 수치 계산 이상도 이하도 아니다. '학습'을 통해 지식을 늘인 것도 아니고, 자신의 삶이 더 윤택해지거나 미래가 더 밝아지거나, 삶이 바뀌는 것도 아니다. 더욱이 이렇게 '학습한 것'마저도 버전 업그레이드를 하면 깡그리 잊어버리고 새로이 '학습'해야 한다.
더 이상 컴퓨터를 의인화하지 말라
하지만 인간의 학습은 그렇지 않다. 제대로 된 학습을 거치고 나면 그 지식은 기억에서 사라지지 않는다. 초등학교에서 배운 덧셈을 평생 잊지 않고 잘 써먹는다. 인간은 학습을 통해 지식이 늘고, 늘어난 지식에 희열을 느끼며, 종내는 자신의 삶을 송두리째 바꾸어 놓을 수도 있다. 우리는 학습하기 위해 초중고 12년의 세월을 보내야 한다. 그러고도 인간은 죽을 때까지 학습한다. 그러나 인공지능에게 학습은 신제품 출시나 업그레이드 버전 출시 직전에 딱 한 번 계산으로 끝낸다. 인공지능은 다음 업그레이드까지 학습하지 않는다.
또한 인공지능은 '판단'하지 않는다. 그저 수치를 계산해 다른 수치와 비교하는 것이 전부이다. 그것은 인공지능이 거주하고 있는 집인 컴퓨터가 할 수 있는 게 그것뿐이기 때문이다. 컴퓨터가 할 줄 아는 건 덧셈과 비교-판단(IF-THEN) 밖에 없다. 80년 전 나온 디지털 컴퓨터가 할 수 있었던 능력이 곧 지금 컴퓨터가 할 수 있는 모든 것이다. 그 안에 사는 인공지능도 마찬가지로 할 줄 아는 게 그것뿐이다.
컴퓨터가 '감동'할 수 없으니 인공지능도 '감동'할 수 없다.
컴퓨터가 자의식을 가질 수 없으니 인공지능도 자의식을 가질 수 없다.
컴퓨터가 '스스로 알아서' 무엇인가를 할 수 없으니 인공지능도 '스스로 알아서' 무엇인가를 할 수 없다.
컴퓨터가 인간이 될 수 없으니 인공지능도 인간이 될 수 없다.
더 이상 인공지능을 의인화 하지 말라. 아니 더 이상 컴퓨터를 의인화하지 말라. 인공지능조차도 '너무한다'지 않나.
저작권자(c) 오마이뉴스(시민기자), 무단 전재 및 재배포 금지
오탈자 신고
댓글4
대학에서 물리학을 가르치다 정년 퇴직 하였다. 늘그막에 인공지능에 흠뻑 빠져 쓰다보니, 어떻게 쓰는 것이 바르게 쓰는 것인지 고민하게 되었다. 인공지능이 할 수 없는 것과 할 수 있는 것을 냉정히 바라보아야 한다. 그 능력을 과대평가해도 안되지만 지나치게 두려워할 필요도 없다.
공유하기
'AI, 처음으로 인간 지시 거부'? 이 영상의 역대급 반전
기사를 스크랩했습니다.
스크랩 페이지로 이동 하시겠습니까?
연도별 콘텐츠 보기