인공지능(AI)의 발전 속도가 무섭다. 속속 발표되는 관련 연구와 기술 개발의 성과는 경이롭기까지 하다.
불과 15년 사이 IBM의 인공지능 '왓슨'이 퀴즈대회에서 인간을 상대하고, 의료 분야에서 암 진단 등에 크게 활용되고 있으며, 구글 딥마인드의 바둑 인공지능 '알파고'는 이세돌 9단을 상대로한 대국에서 승리했다. 그리고 이제 우리는 일상 속에서 챗 GPT 등의 생성형 AI를 활용하는 수준에 다다랐다.
이렇게 생활 속으로 침투한 인공지능은 학습을 기반으로 문제 해결 방안을 스스로 찾아낸다는 점에서 인간의 논리로 코딩된 기존의 프로그래밍이나 모델과는 다르다. AI는 문제해결의 '수행'을 넘어 방법을 '고안'하고 있는 것이다.
따라서 인공지능은 매우 복잡하고 고려할 것이 많은 분야에서 인간을 대신해 활약하고 있다. 인간이 직관적으로 파악하지 못한 수많은 상관관계를 스스로 인지하고 문제를 해결하고 있는 것이다.
기상 분야도 마찬가지다. 최근 IBM의 그라프(GRAF), 구글 딥마인드의 그래프캐스트(GraphCast) 등 인공지능 일기예보는 기존의 논리적 방법론을 배제한 채, 수십 년의 기상자료를 학습시켜 기존의 수치예보모델보다 정확확 결과를 생산하게 되었다고 발표하고 있다.
그러나 이러한 장점은 양날의 검이기도 하다. 인공지능이 고안한 '방법론'을 인간이 이해하지 못하는 공포 상황. 잘 맞더라도 이유를 모르는 '블랙박스'인 AI 기술의 폭발적 성장에 대한 경계심도 자연스레 강화되고 있다.
특히나 최근에는 AI로 인해 100년 이내에 인간이 멸종될 확률이 99.9%라는 연구결과(로만 얌폴스키 교수, 미국 루이빌대학교 사이버보안연구소)로 위기감이 극대화되기도 했다. AI를 버그 없이 완전히 통제할 수 없기에, 안전성과 관련한 문제는 결국 발생할 수밖에 없다는 것이다.
그렇다면 우리는 어떤 선택을 해야 할까. 인공지능의 문제해결 과정을 우리가 이해하지 못한 채, 보조 도구를 뛰어넘는 '판단 주체'로서 AI를 활용할 수 있을까. 이는 우리 행성의 지배자라 자부하는 인간에게 매우 고통스런 질문이다. 알파고를 상대로 바둑돌을 던졌던 날처럼, 모든 분야에서 인간이 AI에게 무릎꿇는 날이 다가오는 것일까.
그렇지는 않을 것이다. 언젠가 원자력 발전소의 '평균' 운영 안정도에 있어 AI가 인간 수준을 능가하여, 운영 전반을 AI에 의존한 채 살아가는 우리의 모습을 상상해 보자. 불안감이 엄습한다. AI가 인간보다 안정적이라 가정했는데도 그렇다. 왜일까?
그것은 안전과 방재의 영역이 일상의 영역과 다르기 때문이다. 바둑의 경우의 수가 아무리 크다 한들 무한이 아니다. 그러나 대자연의 무한한 경우의 수를 예측하는 것은 불가능하기에 필연적으로 예측은 틀린다.
따라서 안전과 방재의 영역은 예측의 정확성보다도 틀린 상황에서의 대처를 중요시하며, 애초에 정답이 존재하지 않는 '관리(management)'의 분야이다. 한마디로 '잘 틀릴 능력'이 필요한 분야인 것이다.
일기예보 역시 마찬가지이다. 인공지능 일기예보가 발전하며 우리가 이 판단 과정에 참여하지 못하고 구경꾼으로 전락하는 상황은 생활 서비스 영역에 국한될 것이다.
우리의 생명에 관련된 방재업무 과정에서 AI는 의사결정을 지원하는 역할에 머물러야 하며, 필연적으로 틀리게 될 위험기상 상황에서 '잘 틀리기 위한' 의사결정은 인간의 영역으로 남아 있을 것이다.
일기예보를 현장에서는 '과학으로 시작해서 예술로 끝나는 행위'로 표현하기도 한다. 과학적이고 논리적인 데이터로 시작하지만 사회적, 경제적, 인문학적 요소에 대한 '직관'적 고려까지 모두 포함된 종합 행위이기 때문이다.
눈부시게 발전해 '생성' 영역까지 도달한 인공지능이라지만 '직관'의 영역은 아직 인간에게 유효하다. 기술의 발전이 우리를 진정 자유롭게 할수록 우리의 역할 역시 분명해질 것이라 믿는다.