KLID FOCUS
최근 AI 기술의 폭발적 확산 속에서 정보보안 위협은 그 어느 때보다 빠르게 진화하고 있다. 지난 9월 3일 개최된 한국지역정보개발원(KLID)과 나우만재단의 2025년 제4회 온라인 세미나는 이러한 현실을 점검하고 대응 전략을 모색하기 위한 자리로 마련됐다.
이번 세미나는 오민정 교수(한국교원대학교 독어교육과)의 사회로 진행됐다. 세미나에서는 고려대 정보보호대학원의 김법연 교수가 국내외 정보보안 법제와 제도 개선 방향을 분석하며, 지자체와 국가 차원의 선제적 대응을 강조했다. 이어 고려대학교 정보보호대학원의 이상근 교수가 생성형 AI를 통한 악성코드 변형, 개인정보 유출 등 새로운 보안 위협을 구체적으로 제시하며, 기술적 혁신과 안전관리가 동시에 요구되는 시대적 과제를 환기시켰다.
발표 1
AI 에이전트 시대에 국내외 정보보안법 억제 현황 및 개선 방안
지역정보개발원과 나우만재단이 공동 주최한 ‘AI 에이전트 시대의 정보보안 세미나’ 첫 발표는 고려대학교 정보보호대학원의 김법연 교수가 맡았다. 김 교수는 국내외 정보보안 법제 현황을 짚으며, 인공지능(AI) 기술의 확산 속에서 지방자치단체와 국가 차원의 제도 개선 방향을 제시했다.
김 교수는 “AI 활용이 늘어나면서 정보보안 위협은 국가 안보와 직결된 문제로 확대되고 있다”는 말로 발표를 시작했다. 그는 문헌에서 정리하는 대표적 AI 보안 위협을 ▲AI를 활용한 공격 ▲AI 시스템 자체를 겨냥한 공격 ▲AI 알고리즘 오류로 인한 위험, 세 가지로 구분하며, 이에 대한 법적·제도적 대응이 시급하다고 강조했다.
김 교수는 먼저 미국의 사례를 통해 행정명령을 기반으로 한 사이버 보안 전략의 특징을 짚었다. 미국은 대통령 행정명령을 중심으로 ‘제로 트러스트’ 보안, 사이버 보안 프레임워크 개편, 주요 인프라 보호를 핵심 과제로 설정하고 있으며, 무엇보다 공격 이후의 회복력을 빠르게 확보하고 민관 협력을 강화하는 점이 두드러진다. 최근에는 AI 보안센터와 AI 안전연구소 설립, 연방기관 내 AI 최고책임자 지정, 공급망 보안 강화를 위한 소프트웨어 자재 증명(SBOM) 제도화 등 구체적 제도 장치도 마련해 체계를 고도화하고 있다. 이어 유럽연합(EU)의 접근은 ‘사이버 복원력’ 강화에 방점을 두고 있다고 설명했다. EU는 서비스와 제품의 전 생애주기에 걸쳐 보안을 확보하도록 규제하며, 국가 간 공동 대응을 위한 ‘사이버 연대법(Cyber Solidarity Act)’을 도입해 회원국 전체의 보안 수준을 높이고 산업 리스크를 줄이는 데 주력하고 있다. 영국은 정부기관이 AI를 도입할 때 안전성과 신뢰성을 검증하는 절차를 의무화하고, 지속적인 가이드라인과 지침을 제공하며 신뢰성을 관리하는 데 힘을 쏟는다. 일본은 최근 ‘능동적 사이버 방어’ 개념을 법적으로 허용해 공격 징후가 포착되면 국가 차원에서 선제 대응할 수 있도록 제도를 정비했다. 이렇듯 국제 사례를 소개한 김 교수의 핵심 메시지는 한국의 지방자치단체와 중앙정부 모두가 AI 보안 위협에 대한 대응 전략을 정교화해야 한다는 것이다. 그는 데이터 관리 체계 정비, 민관 협력 구조 구축, 공급망 보안 강화 등 국제적 흐름을 적극 참고해 국내 법제를 보완할 필요가 있다고 지적하며, 특히 지자체가 행정서비스에 AI 기술을 도입하는 과정에서 동시에 보안 리스크를 관리할 수 있는 제도적 장치를 선제적으로 마련해야 한다고 강조했다.
발표 2
AI 에이전트 시대의 정보보안
“AI 에이전트 시대의 정보보안”을 주제로 발표한 이상근 교수는 인공지능의 역사와 현재, 그리고 보안 측면에서 우리가 마주한 새로운 위협을 심도 있게 분석했다.
이 교수에 따르면, 1956년 다트머스 회의에서 ‘인공지능(Artificial Intelligence)’이라는 용어가 처음 등장한 이래 인공지능은 기대와 실망을 반복하며 여러 차례 ‘AI 겨울’을 경험했다. 그러나 1990년대 말 뱀닉(Vladimir Vapnik)의 통계학적 학습이론 정립, 2010년대 딥러닝의 부흥, 그리고 2017년 트랜스포머 어텐션의 출현이 큰 전환점이 되었으며, 이후 GPT 계열 모델의 비약적인 성장이 이어지면서 최근 7~8년 사이 AI 모델의 규모와 성능은 1만 배 이상 확대되는 폭발적 진화를 이뤘다는 것.
이 교수는 이러한 발전이 가져온 양면성을 강조했다. 한편으로는 업무 혁신과 행정 서비스 개선, 과학 연구 가속화 같은 긍정적 효과가 크지만, 다른 한편으로는 사이버 공격 도구로 악용될 가능성이 커지고 있다는 지적이다. 실제로 생성형 AI는 사람보다 더 정교한 피싱 메일을 자동으로 작성하거나, 악성코드를 변형·복제해 기존 탐지 시스템을 회피하는 데 사용될 수 있다. 최근에는 GPT 모델이 보안 경진대회 문제를 스스로 풀거나, 웹 취약점을 찾아내는 ‘디지털 해커’로 활용된 사례도 보고되고 있다.
이 교수는 특히 ‘다형성 악성코드(polymorphic malware)’ 가능성에 주목했다. AI가 스스로 코드를 변형하며 진화한다면, 기존 백신이나 보안 시스템이 탐지하기 어려운 상황이 벌어질 수 있다는 것이다. 이와 같은 상황은 단순한 위협이 아니라, 향후 사이버 보안 패러다임 자체를 뒤흔들 수 있는 위험 요인이라고 그는 지적했다.
개인정보 보호 문제도 간과할 수 없는 부분이다. 모델 역전 공격(Model Inversion Attacks)을 통해 학습 데이터에서 개인의 얼굴 이미지를 복원하거나, 멤버십 추론 공격(Membership Inference Attacks)을 통해 특정 민감 정보가 학습에 포함되었는지를 확인할 수 있는 등 AI 모델이 무심코 개인정보 유출 통로로 변질될 수 있음을 경고했다. “AI가 활용되는 방식에 따라, 우리가 알지 못하는 곳에서 우리의 정보가 노출될 수 있다”는 것이 그의 설명이다.
이어 이 교수는 국제적으로 논의되는 OWASP(The Open Worldwide Application Security Project)1)의 ‘LLM 애플리케이션 Top 10’2)을 소개했다. 이는 대형 언어모델(LLM) 활용 과정에서 빈번하게 발생할 수 있는 보안 위협을 정리한 목록이다. 이 가운데 그는 ▲프롬프트 인젝션(prompt injection) ▲적대적 예시 기반 회피(adversarial example) ▲개인정보 유출(data leakage) 등을 가장 대표적인 리스크로 꼽았다. 특히 프롬프트 인젝션이나 ‘탈옥(jailbreak)’ 공격은 모델의 안전장치를 무력화하는 방식으로, 현재 기술로는 완벽히 차단하기 어려운 문제라고 강조했다.
이 교수는 발표를 마무리하며 “AI는 이제 특정 연구자나 전문가 집단의 영역을 넘어 사회 전반에 스며들고 있다”며, 혁신성과 위험성을 동시에 고려하는 균형 잡힌 보안 전략이 필요하다고 제언했다. 그는 또, 행정과 공공서비스 영역에서도 AI 활용과 보안 리스크 관리가 동시에 진행되어야 한다는 점을 강조하며, AI 시대의 보안 전략은 단순한 기술 문제가 아니라 사회적 합의와 제도적 장치를 동시 충족해야 한다는 것을 재인식시켰다.
1) 오픈소스 웹 애플리케이션 보안 프로젝트. 주로 웹에 관한 정보노출, 악성 파일 및 스크립트, 보안 취약점 등을 연구한다
2) 웹 애플리케이션 취약점 중에서 빈도가 많이 발생하고, 보안상 영향을 크게 줄 수 있는 10가지, https://owasp.org/www-chapterseoul/assets/files/LLMAll_ko-KR-2025-04-02.pdf