한국지역정보개발원(개발원)과 독일 프리드리히 나우만재단과
공동으로 주최하는 ‘제4회 온라인 정기세미나1)’가 지난 9월 25일 개최됐다.
이번 세미나는 AI 기술을 어떻게 받아들이고, 어떤 윤리적 기준을 세워야 할지
그 방향성을 모색하는 자리로 마련됐다.
1) https://www.youtube.com/watch?v=wNc9nQOwthw&list=PLsl1g4INRIKRK4eOPp8LjKt9NspXR9Y6l
개발원 유튜브 채널을 통해 실시간으로 진행된 이번 세미나는 ‘대한민국 디지털 플랫폼 정부 정책’을 주제로 기획된 2024년 총 4회의 세미나 중 마지막을 장식했다. 3월에는 ‘디지털 플랫폼 정부 정책과 추진 방향 및 사례(1회)’를, 5월에는 ‘초거대 AI 기반 서비스 활용 체계와 지자체의 활용 사례(2회)’를, 그리고 7월에는 ‘AI 시대의 정보보호 정책 및 보안 기술 사례(3회)’를 다룬 바 있다.
오민정 교수(한국교원대학교)의 사회로 진행된 이번 세미나는 ‘AI 윤리 문제와 글로벌 AI 규제 동향’을 제시했다. 발제는 국제인공지능윤리협회의 전창배 이사장과 고려대학교 정보보호대학원의 임지훈 박사가 맡아 각각 ‘국내외 최신 AI 윤리 이슈와 해결방안’과 ‘글로벌 인공지능 규제 동향과 시사점’에 대해 설명했다.
전창배 이사장은 먼저 “인공지능은 두려워하거나 경쟁해야 할 대상이 아니라, 우리에게 편리함을 가져다주는 도구”라고 인정했다. 그러나 인공지능이 어떻게 통제되느냐에 따라 유익하거나 해로울 수 있다는 점을 강조한 뒤, “따라서 인공지능을 사용하고 소비할 때 지켜야 할 윤리, 그리고 인공지능을 개발하고 만들 때 지켜야 할 윤리가 필요하다”고 주장했다. 이는 인공지능 기술 발달의 이면에 여러 가지 윤리적 문제들이 존재한다는 것을 의미하는데, 전 이사장은 이를 ▲편향성 문제 ▲오류와 안전성의 문제 ▲악용과 오용의 문제 ▲개인정보·저작권 침해의 문제 ▲인류 위협의 문제 등으로 정리했다.
전 이사장은 “인공지능은 학습된 데이터를 기반으로 결과를 도출한다”면서 “그런데 학습에 사용되는 데이터가 이미 편향돼 있거나 불완전하기 쉽다”고 말했다. 또한 “AI는 알고리즘 설계자의 주관적인 편견을 반영한다”면서 “입력이 잘못되면 출력은 당연히 잘못될 수밖에 없다”고 지적했다. 오류와 안전성 문제에 대해서는 “로봇이 작업자를 잘못 인식해 심각한 부상을 입히거나 사망에 이르게 하는 사건이 실제로 발생하고 있다”며 “현재 AI 기술은 아직 완벽하지 않다”고 꼬집었다.
또한 악용 및 오용과 관련, “법적 장치가 마련되었지만 딥페이크 성범죄는 여전히 심각한 문제다”고 말한 뒤, “AI가 생성한 콘텐츠의 저작권 문제도 종종 발생하고 있다”고 밝혔다.
전 이사장은 또한 AI 기술이 환경 및 인간의 생존에 심각한 영향을 미치고 있다고 지적했다. 곧 구글이나 네이버에서 한 번 검색하는 것보다 챗GPT와 같은 생성형 AI를 한 번 사용하는 것이 7~10배 더 많은 탄소를 배출한다는 것. 게다가 AI 기술이 편리해질수록 환경에 대한 부담은 더욱 커지기 때문에 탄소 배출이 증가하는 악순환을 피할 길이 없다는 것이 그의 설명이다.
전 이사장은 이에 대해 “이러한 문제에 대응하기 위해 AI 기업들은 막대한 전력을 확보하고자 한다”면서 “하지만 과도한 전력 소비와 탄소 배출 증가는 결국 인류의 생존에 대한 위협으로 이어진다”고 말했다. 또 전투기나 탱크보다 저렴한 비용으로 더 큰 살상력을 발휘하는 전쟁 드론을 예로 들며, “전 세계의 국방부가 이러한 비용 효율적인 무기에 주목하다가 결국 인간형 킬러 로봇까지 전쟁터에 등장하게 되면 문제는 심각해진다”고 강조했다. 심지어 “자율성을 가진 로봇이 인간의 명령과 무관하게 독자적으로 행동할 수 있다”면서 “무고한 민간인이나 인명을 살상할 가능성도 크다”고 부연했다. 이어 “결국 우리의 미션은 신뢰할 수 있는 AI를 만드는 것이다”면서 “인공지능 기술의 윤리적 문제를 해결하고 안전하게 활용하기 위해서는 적절한 법과 제도의 마련이 필수적이다”고 거듭 강조했다.
‘글로벌 인공지능 규제 동향과 시사점’을 주제로 발표한 임지훈 박사는 EU, 미국, 중국의 사례를 소개했다. 임 박사에 따르면 유럽연합은 지난 2020년 인공지능 알고리즘에 대한 법적 규제의 필요성을 강조하는 ‘인공지능 백서’를 발표했다. 이후 2021년 유럽연합 집행위원회의의 ‘인공지능에 대한 조화로운 규칙을 규정하는 법률안’ 제안으로 논의 및 수정을 거친 뒤 2024년 3월 13일 본회의를 통과했다.
2020년 국가 AI 이니셔티브법을 제정, 연구개발 생태계 확대 및 데이터 개방으로 AI 진흥을 지원해 온 미국은 ChatGPT의 등장 이후 부작용에 대한 우려가 커지면서 규제의 필요성을 실감했다. 이에 2022년 AI 권리 장전을 발표하고, 2023년 10월 30일 인공지능을 규제하는 첫 행정명령을 발효시키는 등 AI의 긍정적 잠재성을 극대화하면서 최소한의 영역에서는 규제하는 방안을 추진하는 중이다.
한편 중국은 국가 차원에서 통제가 필요하다고 여겨지는 인공지능 기술에 대해 개별적 규제를 택하고 있다. 2022년 3월부터 시행 중인 규정은 알고리즘을 활용해 이용자들에게 콘텐츠를 추천하는 인터넷플랫폼사업자들에 대해 중국의 핵심가치를 견지하고 불법정보를 전파하지 않도록 하는 의무 사항을 담고 있다. 2023년 8월 15일부터는 생성형 인공지능 기술과 생성된 콘텐츠 및 제품 등의 산출물에 대한 규제를 적용하고 있다.
임 박사에 의하면, 각국의 인공지능 규제를 살펴보면 공통적으로 확인할 수 있는 윤리적 원칙들이 존재한다. 이에 그는 “각국의 사회와 문화에 맞는 리스크 기반 규제를 마련하는 것이 중요하다”면서도 “분야별 적용에 따라 각 영역에서의 정책 및 규제 연동을 고려해야 한다”고 강조했다. 아울러 “AI 시스템이 야기할 수 있는 위험을 국제적으로 협력해 해결하려는 움직임이 강화되고 있다”면서 “AI 안전성·윤리성, 그리고 규제 프레임워크에 대한 글로벌 규범과의 연계가 필요하다”고 힘주어 말했다.