메뉴 건너뛰기

close

  
서울시의 '생성형 AI 윤리 가이드라인'의 기본원칙
 서울시의 '생성형 AI 윤리 가이드라인'의 기본원칙
ⓒ 서울시 제공

관련사진보기

 
서울시가 '챗GPT' 등 생성형 인공지능(AI)을 행정 서비스에 접목할 경우에 생기는 문제들을 점검할 수 있는 윤리 가이드라인을 지자체 처음으로 마련했다.

서울디지털재단(이사장 강요식)은 서울시민 인공지능(AI) 일상화 3대 프로젝트 중 하나인 서울시 생성형 AI 윤리 가이드라인을 13일 발표했다.

서울시 생성형 AI 윤리 가이드라인은 이용자·운영자·개발자가 자율적으로 준수할 수 있는 규범을 제시한다는 취지로 '이용자 중심, 위험예방, 지속가능성'이라는 세 가지 원칙을 담았다.

'이용자 중심'은 생성형 AI에 대한 이용자의 참여 정도에 따라 새로운 위험요인이 나타나기 때문에 '이용자를 중심'으로 한 윤리 가이드라인 마련이 필요하다는 내용이다. 이용자는 생성형 AI가 허위 정보를 답변했는지 검증할 수 있는 역량과 악의적 활용에 대한 책임성을 가져야 한다.

'위험예방'은 삶의 질을 향상시키기 위해서는 AI의 활용만큼이나 위험을 최소화할 필요가 있기 때문에 생성형 AI의 위험을 기반으로 핵심 요건을 도출해야 한다는 내용이다.

'지속가능성'은 도시경쟁력을 약화시키는 범죄와 환경오염 등의 도시 문제를 생성형 AI를 통해 해소할 필요가 있으며, 이를 위해 윤리 가이드라인에 지속가능성의 개념이 필요하다는 내용이다.

윤리 가이드라인이 적극 확산되고 활용되기 위해서는 이해관계자가 처한 위험 유형을 정확하게 인지하고, 이에 맞는 준수사항을 인지할 필요가 있다.

강요식 서울디지털재단 이사장은 "생성형 AI가 확산되는 가운데, 가짜뉴스, 개인정보 침해 등 AI 위험 우려도 커지는 상황"이라며 "재단 차원에서 시민교육, 윤리문화 확산 활동을 통해 건전한 AI 활용문화 조성을 위해 노력할 것"이라고 밝혔다.

태그:#서울디지털재단
댓글
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기


독자의견

연도별 콘텐츠 보기