1) 본고는 저자의 「지능정보사회와 AI 윤리」 중 일부를 발췌하여 요약 정리함을 밝힘.
스웨덴 왕립과학원 노벨위원회는 오늘날 인공지능(AI)의 시대를 연 인공 신경망 연구로 기계학습(머신러닝)의 토대를 놓은 존 홉필드 미국 프린스턴대 교수와 제프리 힌턴 캐나다 토론토대 교수를 2024년도 노벨 물리학상 수상자로 선정했다고 발표했다. 이어서 데이비드 베이커 미국 워싱턴대 교수, 데미스 허사비스 구글 딥마인드 최고경영자(CEO), 존 점퍼 딥마인드 수석연구원을 노벨화학상 수상자로 선정했다고 발표했다. ‘AI의 대부’로 불리는 제프리 힌턴 교수가 노벨상을 받은 데 이어, 화학계에서도 AI 연구자가 노벨상을 받게 된 것이다. AI의 겨울이라 불리던 암흑기에서 벗어나 챗 GPT로 대표되는 생성형 AI로 꽃을 피우는 데 기여한 공로라는 평가다. 이제 세계는 AI가 가져올 세상에 대해 주목하지 않을 수 없다.
힌턴 교수는 노벨상위원회와의 인터뷰에서 “인류는 지금까지 AI의 머신러닝(기계학습)보다 더 똑똑한 기계를 가진 적이 없다”며 “앞으로 효율성과 생산성을 더 크게 높일 수 있을 것이고, 우리 삶에 큰 영향을 끼칠 것”이라고 했다.
무엇보다 전통적 물리학 이외의 첨단 정보기술(IT)과 관련해 노벨 물리학상 수상이 이루어진 적이 없어 학계에서도 파격으로 받아들이고 있다. 그러나 노벨위원회는 수상자 발표와 함께 수상 대상이 된 기술에 대해 “인류가 이 기술을 안전하고 윤리적으로 쓰기 위한 방법을 고민해야 한다”고 언급했다. 홉필드 교수는 “최근 AI의 발전이 매우 불안하다”면서 “이러한 발전이 통제 불능 상태에 빠지면 대재앙이 올 수 있다”고 경고했다. 힌턴 교수도 “상당히 많은 훌륭한 연구자들이 앞으로 20년 안에 AI가 인류보다 더 똑똑해질 것이라고 믿고 있는데, 우리보다 AI가 더 똑똑해질 때 무슨 일 일어날지 깊이 생각해야 한다”면서 “이 기술이 가져올 나쁜 결과들, 특히 AI가 우리의 통제를 넘어설 수 있다는 것을 고려해야 한다”고 지적했다. 또한 “AI 기업들이 안전에 관한 추가적인 연구에 매진해야 한다”는 점도 인터뷰를 통해 강조했다.
이미 빅데이터의 생성과 활용·공유를 통한 시장의 생태계가 활성화되면서 그에 못지않은 신종 사이버범죄의 등장과 이를 막기 위한 노력, 디지털윤리의 인식을 확산하기 위한 노력도 함께 이어지고 있다.
인공지능(AI)이 일상화되면서 인공지능은 이제 새롭지 않을 만큼 우리 생활 전반에 자연스레 녹아들고 있다. 인공지능의 강점은 우리에게 최적화된 편리함을 제공한다. 현재 추진 중인 공공서비스의 시도들을 보면 내용과 방법이 이전과는 다른 접근을 시도하고 있음을 알 수 있다. 서울시의 예를 보면 단순히 시민 생활민원이 아닌 도시문제에 대한 해결 수요와 함께 시민들의 도시문제 해결에 대한 정책 아이디어를 다양한 방식을 통해 수렴하고 있다.
시민들이 제안한 아이디어를 시정과제로 연계하며, 다양한 공공서비스의 수요-공급(과부족) 현황을 파악할 수 있는 디지털 플랫폼을 구축하고 확산하여 시민참여를 통한 공공서비스 혁신 기반을 마련하고자 한다. 또한 공공이 보유한 학습데이터들을 시민에게 공개함으로써 고차원의 인공지능·데이터 서비스 발굴과 지원을 하는 등 학습데이터 활용을 통한 민간서비스 지원체계를 강조하고 있다. 지역문제 해결 차원에서 필요한 인공지능 서비스를 위해 지역주민 참여를 통한 학습데이터를 확보하는 등 지역공공재의 시민자산화라는 새로운 접근법을 시도하고 있다. 공공서비스의 개선과 인프라 확보를 통한 서비스 고도화 및 민간 시장, 지역별 특화산업이 더욱 활성화될 수 있도록 맞춤형 디지털 공공서비스 제도가 이어지고 있다.
지역차원에서도 데이터, 인공지능 분야가 공공시장에서 더욱 활성화될 수 있도록 지역형 데이터 구축, 데이터포털 마련, 인공지능 플랫폼 도입 등의 새로운 접근법이 제안되고 있음을 볼 수 있다. 혁신적인 기술, 제품, 서비스가 지역에 확산 될 수 있도록 기존 단순 구매 방식에서 벗어나 다양한 민간-공공 협력형 공공서비스 도입체계도 관심을 끌고 있는 분야이다.
인공지능의 기반은 데이터이다. 머신러닝을 통한 인공지능의 새로운 영역 확대는 우리에게 다양한 혜택을 주고 있지만 동시에 머신러닝의 대량의 데이터 수집은 최종 이용자의 개인정보 침해와 연결된다는 점도 주목해야 할 것이다. 인공지능의 시장을 보면 통신, 하이테크, 금융, 헬스케어 등 주요 산업에서 폭넓게 활용되고 있다. 인공지능은 주요국의 산업 성장에 경제적 가치를 부여할 뿐 아니라 이용자들의 삶의 질까지 향상시킬 수 있는 거대한 잠재력을 지니고 있다는 점에 공감한다. 미국 정부와 EU, 중국 등 다수 국가들은 인공지능 분야의 연구지원은 물론 산업진흥 전략을 구체화하여 발표하는 등 인공지능 발전과 확산에 정책적 박차를 가하고 있다.
지능정보기술은 대규모 데이터에 대한 자가 학습(Machine Learning)을 통해
알고리즘 성능을 지속적으로 강화하므로 데이터와 지식이 산업의 주요 경쟁 원천이 된다.
스스로 데이터를 확보할 수 있는 생태계를 구축하고 이를 활용할 수 있는 알고리즘을 보유한
기업이 시장을 주도하고 많은 이윤을 창출하고 있다.
인공지능은 인간의 지능적 사고 및 행동을 모방하는 컴퓨터 프로그램으로 최근 새로운 정보서비스를 창출할 수 있는 신기술로 많은 주목을 받고 있다. 특히, 기존의 산업기술과 ICT를 융·복합화해 새로운 산업을 육성하는 기회로 활용될 수 있어 그 유용성이 점점 커져가고 있다. 무인자동차의 등장, 인공지능 기술을 활용한 로봇의 발전에 따른 서비스의 무한 진화가 기다리고 있다.
지방자치단체는 그 어느 때보다도 생활밀착형 정보서비스의 변화가 예상되고 있다. 무엇보다 CCTV를 활용한 안심귀가, 교통정보, 주·정차 단속 등의 서비스는 물론 무인기기 활용서비스, 사회인프라 관리 서비스 등이 이미 반영되고 있거나, 중장기적 차원에서 계획되고 있다.
지능정보기술은 대규모 데이터에 대한 자가학습(Machine Learning)을 통해 알고리즘 성능을 지속적으로 강화하므로 데이터와 지식이 산업의 주요 경쟁 원천이 된다. 스스로 데이터를 확보할 수 있는 생태계를 구축하고 이를 활용할 수 있는 알고리즘을 보유한 기업이 시장을 주도하고 많은 이윤을 창출하고 있다.
지능정보가 새로운 사회 인프라로 기반하면서 경제구조는 물론 직업의 변화를 가속화시키고 있다. 이러한 인공지능 스피커의 이용, 공유경제 플랫폼을 통해 차곡차곡 쌓여가는 데이터는 새로운 자산의 가치를 보여주고 있다. 데이터가 생성되고, 데이터를 분석하여 방향성을 읽을 수 있다는 점에서 글로벌 기업들이 앞장서서 데이터 산업에 주력하고 있다. 데이터의 활용이 활성화될수록 이 안에 담긴 개인정보의 유출은 심각한 제2의 피해로 등장 할 수 있어 다각적인 차원의 대응방안 모색이 요구된다.
데이터 처리에 기계학습을 이용하여 짧은 시간에 정확한 결과를 얻을 수 있게 되었다. 비즈니스 분야에서는 기계학습 결과를 마케팅이나 비즈니스 전략 수립에 활용함으로써 수익을 창출한다거나 향후 일어날 수 있는 리스크를 미리 예방하기도 한다.
기계학습을 통해 짧은 시간에 데이터를 분석해 줄 수 있기 때문에 기계학습이 주목을 받고 있다. 기계학습에서는 데이터에 대해 반복적 학습을 통해, 데이터에 포함되어 있는 패턴(특징)을 찾아내는 작업을 한다. 이러한 기계학습은 상품 추천, 챗봇(chatbot), 수요예측·자동발주, 의료진단 등 매우 다양한 분야에서 활용되고 있다. 기계학습은 실시간으로 수집된 데이터를 분석해서 실제 예측기능까지도 보여주고 있다. 그러나 기계학습 과정에서 발생하는 한계도 있다. 예를 들면 환자의 과거 병력 데이터를 토대로 인공지능이 환자의 병명을 예측함과 동시에 적절한 처방을 하는 등 순기능도 있으나, 인공지능이 병명 예측을 잘못하거나 부적절한 처방을 제시함으로써 의료사고가 발생하는 등 역기능 사례가 발생하기도 한다.
얼굴인식, 채팅, 채용, 추천, 예측, 의료, 대출심사 등등 우리의 일상 생활과 관련된 다양한 업무수행 과정에서 오류가 발생하거나 오판이 생길 수 있는 여지가 있다는 점이다.
기계학습과정은 크게 데이터준비과정과 학습과정으로 구분할 수 있는데, 이들 모든 과정에서 역기능 문제가 발생할 수 있다. 기계학습 단계의 역기능은 지도학습은 물론, 비지도학습에서도 발생할 수 있다. 비지도학습이라 하더라도 사실은 반지도학습이라고 할 수 있는데, 학습용 데이터를 수집하고 시스템에 입력하는 것은 사람의 몫이기 때문이다. 사람이 데이터를 다루는 한, 역기능 문제가 발생할 가능성이 있다.
데이터준비 단계는 데이터 수집과 레이블링 과정으로 구분할 수 있는데, 인공지능이 기계학습을 할 때 이용할 데이터의 품질에 문제가 있기 때문에 역기능이 발생할 수 있다. 이미지데이터의 인식 오판이나, 데이터 수집단계에서 최대한 다양한 데이터가 수집되어야 하는데, 희귀한 종류의 개에 대한 데이터가 누락되었을 경우 해당 희귀종의 개를 제대로 인식하지 못할 가능성이 있다. 즉 데이터가 충분히 수집되지 않으면 제대로 인식하지 못하는 오류를 야기 할 수도 있다.
학습단계에서도 역기능 문제가 발생할 수 있는데, 소수 그룹을 무시할 가능성도 있다. 일반적으로 대부분의 데이터가 어느 한 유형에 다량의 데이터를 보유하고 있을 때 일부 소수 그룹이 예외가 될 수 있는 가능성도 들고 있다. 예를 들어 어떤 기업에서 유명 대학 출신자 또는 특정 지역 응모자만 채용했다고 할 때, 직원채용 인공지능은 이러한 후보자들이 유력후보자인 것으로 학습할 것이고, 실제로는 이러한 조건을 만족하지 않는 응모자를 추천하지 않을 수도 있어 데이터의 학습 차원에서 다각적인 시도가 필요하다.
기술발전으로 인해 사회가 변화를 거듭할 때마다, 새로 등장한 사회에서 역기능 문제가 발생하였고, 새로운 사회에서는 역기능 문제를 윤리로 대응해 왔는데, 지능정보사회에서도 역기능 문제에 대응하기 위해 윤리가 필요하다. 인공지능 기술 발전으로 등장하게 된 지능정보사회의 역기능 문제는 기계학습을 위한 데이터 수집단계와 분석 그리고 학습에 이르는 모든 단계에서 발생할 수 있는데, 이들 역기능 문제는 사람과 알고리즘에 의해 각 단계에서 발생하게 된다.
데이터수집과 분석 단계에서 사람이 수집한 데이터는 일부에 치우친 데이터만 수집함으로써, 역기능 문제를 일으킬 수 있고, 데이터 분석단계에서도 레이블링을 잘못함으로 인해 역기능 문제가 발생할 우려가 있다. 인공지능도 데이터를 수집할 수 있는데, 알고리즘에 의해 수집된 데이터는 개인정보 및 프라이버시 침해 등의 역기능 문제를 일으킬 수 있다.
정보사회에 비해 지능정보사회에서 새로 등장하는 역기능 문제는 데이터에 의해 발생하기 때문에, 지능정보사회에서는 데이터에 의해 발생하는 역기능에 대응하기 위해 데이터윤리(data ethics)가 필요하다. 무엇보다 데이터·인공지능을 다루는 과정에서 사람에 의해 발생하는 역기능을 중심으로 윤리 문제를 볼 필요가 있다. 데이터윤리를 정의하면, 사람에 의해 발생되는 데이터 품질 문제와 관련하여 이용자가 알고 지켜야 할 도리를 다루는 분야이다. 구체적으로는 품질면에서 문제가 있는 데이터로 인한 피해 등을 방지하기 위해 데이터를 어떻게 다루어야 하는지를 중점적으로 볼 필요가 있다.
지능정보사회에서 데이터의 역기능 문제를 일으킬 수 있는 품질이 나쁜 데이터를 이용할 경우 발생할 수 있는 사회적 갈등과 혼란으로 인한 비용까지를 고려하면 비즈니스에서 이용하는 데이터 품질문제보다 훨씬 큰 문제로 이어질 수 있다.
여러 이해관계가 모여 협의를 도모하고
우선하는 가치를 중심으로 윤리거버넌스의 생태계가
구축될 수 있도록 상생의 노력이 필요하다.
혁신기술로서 인공지능은 소프트웨어의 일종이지만 전통적인 소프트웨어와는 전혀 다른 특징을 가지고 있다. 이에 대한 정확한 분석을 거친 후 인공지능의 특징을 추출하여 정리할 필요가 있으며 여기에 인류의 보편적 가치까지 더불어 감안함으로써 인공지능 윤리 원칙을 수립해야 한다.
인공지능의 생명주기 중 운영 단계에서는 이용자 또는 운영자 입장에서도 바라보아야 한다. 특히 스마트폰 안에 제공되는 인공지능 비서, 생활 속에 보편화된 인공지능 스피커, 인공지능에 의한 기업 입사 면접, 인공지능에 의한 금융기관의 개인 신용도 평가 등 이미 사회 각 분야에 인공지능 제품이나 서비스가 현실적으로 확산되기 시작했기 때문에 인공지능 윤리는 개발자의 입장에서만 바라볼 것이 아니라 이용자의 입장에서도 동시에 바라볼 필요가 있다.
사업가와 같은 영리목적의 도입자나 정부, 지방자치단체 및 공공기관 같은 비영리 도입자의 입장에서도 인공지능 윤리 원칙에 대한 고유의 투영 및 해석 과정이 필요해진다. 최근에 야기되는 범죄 유형을 보면 사이버 속으로 들어가 버린 범죄들이 확대되고 있고, 표면화되지 않지만 사이버 상에서 참혹한 일들이 벌어지는 양상이다. 인공지능 기술의 가속도가 심화될수록 범죄 유형도 비례할 수 있음을 우려하는 목소리가 크다.
인공지능의 생명주기 중에서 설계나 구현 단계에서는 인공지능 개발자가 가장 많이 개입하므로 이들의 입장에서 인공지능 원리를 해석하여 인공지능 윤리 가이드라인을 구체화할 필요가 있다.
지능정보기술은 정부를 어떻게 변화시킬 것인가? 정부업무 내부적으로는 합리적 정책 결정, 효율성과 효과성을 배가시키기 위한 차원에서 주목할 필요가 있다. 외부적으로는 공공서비스의 효과적 제공, 참여의 도모와 대응 차원에서 정부의 변화를 주도해야 할 것이다.
인공지능, 빅데이터, 사물인터넷, 클라우드는 동일한 방향성을 띠고 있다. 빠르게 확산되는 과정에서 전통적인 개인정보의 최소수집원칙, 목적 제한의 원칙, 최소 보유기간의 원칙 등이 간과되지 않도록 보호체계 중심의 접근이 우선되었다. 그러나 비즈니스 확장성을 요구하는 시장의 생태계는 변화의 속도가 워낙 빠르다 보니 규제완화에 목소리가 커지고 있다. 개인의 프라이버시 보호가 우선인 유럽 국가들의 논의와 시장중심의 생태계 활성화에 주목하는 미국, 중국 등의 국가간 가치도 상이하게 접근하는 모습을 볼 수 있다.
기술 발전은 인류를 위한 것이므로, 정보주체의 권리를 희생하면서 혁신을 추구할 수는 없다. 글로벌한 데이터 경쟁시대에 단순히 법과 제도만으로 모든 문제가 해결의 테두리 안으로 들어갈 수 없다. 기업은 이용자의 통제권과 선택권을 보장하고, 투명성과 책임성의 원칙을 준수하기 위한 윤리적 기준을 우선적으로 반영해야 할 것이다. 정부도 통제 중심의 규제만으로 효력을 발휘하는 데 한계가 있다. 따라서 가명조치, 비식별 조치 등의 기술적 보호조치 등을 적절히 수행할 수 있도록 동기부여도 필요하다. 실질적인 정보주체의 권리와 이익을 보호해야 하는 우선순위를 잊어서는 안될 것이다. 여러 이해관계가 모여 협의를 도모하고 우선하는 가치를 중심으로 윤리거버넌스의 생태계가 구축될 수 있도록 상생의 노력이 필요하다.