혁신을 잇다 ①
인공지능(AI)은 행정 효율성을 높이고 국민 서비스를 정교하게 확장하는 기회를 열어주지만, 동시에 데이터 편향, 투명성 결여, 책임성 약화 등 새로운 위험을 동반한다. 이에 세계 각국은 AI 활용과 규제의 균형을 모색하며 각자도생이 아닌 ‘책임 있는 적용’의 길을 찾고 있다. 이번 호에서는 지방정부의 AI 거버넌스 운영 양상과 구체적 과제를 짚어본 뒤, 우리 지방정부가 얻을 수 있는 교훈과 정책적 시사점을 제시한다. 〈편집자 주〉
미국 지방정부는 크게 카운티(County) 정부와 기초자치단체(Municipality)가 있다. 미국 인구조사국(U.S. Census Bureau)에 따르면 2022년 현재 카운티 정부가 3,031개 있고 35,705개의 기초자치단체가 있다(Smaldone & Wright, 2024). 이하에서는 카운티 정부와 대표적인 기초자치단체인 시정부의 AI거버넌스에 대해 나누어 논의하고자 한다.
3,000개 이상의 카운티 정부의 개별적인 AI거버넌스를 살펴보기보다는 3,069 카운티 정부가 회원으로 가입되어 카운티 정부를 대표할 수 있다고 할 수 있는 전미 카운티 협의회(National Association of Countis)에서 권고하는 AI거버넌스를 중심으로 논의하고자 한다. 최근 이 협의회의 AI 탐색 위원회에서는 카운티 정부의 생성형 AI 사용에 관한 원칙 및 가이드라인(National Association of Counties, 2024)을 발표했다. 이 위원회에서는 생성형 AI 정책과 절차를 도입하거나 지속하려는 카운티 정부들이 고려해야 할 7가지 기본원칙을 아래와 같이 제시하였다.
민첩하고 유연하며 창의적으로 사고하라. 크게 생각하라.
카운티와 지역사회가 달성하고자 하는 목표를 설정하고,
이를 위해 활용 가능한 사례를 식별하고 평가하라.
소극적인 대응이 아니라 적극적으로 대비하라.
“우리는 AI 또는 생성형AI를 금지한다”는 접근보다는,
명확한 가이드라인과 안전장치를 제공하는 방식으로 대응하라.
정확성, 프라이버시, 편향, 윤리적 문제에 대해 지속적으로 경계하라.
생성형 AI가 직원에게 긍정적인 변화를 가져올 수 있다는 점을 소통하고, 예상되는 과제를 선제적으로 설명하라.
강력한 데이터 거버넌스 요건을 포함한 AI 시스템 도입의 기능적 요건을 정립하라.
생성형AI 전환을 위한 재정, 인력, 자원 계획을 사전에 수립하라.
위의 기본원칙을 갖고 이 위원회에서는 정책 워크그룹, 윤리 워크그룹, 응용서비스 워크그룹, 인력 워크그룹 등 4개의 워크 그룹에서 각각의 권고사항을 제시하고 있다. AI 정책모델 장려를 목표로 하는 정책 워크그룹에서는 (1) 카운티의 AI 정책 프레임워크를 수립하라; (2) 주요 법적 고려사항을 검토하라; (3) 그리고 기존의 조달 정책을 검토하고 평가하라 라는 세 가지를 권고했다. 윤리적 기준 마련을 목표로 하는 윤리 워크그룹에서는 AI 개발, 도입, 사용에 있어서 (1) 공정성, 형평성, 중립성; (2) 투명성; (3) 개인정보보호 (4) 책임성; 그리고 (5) 교육훈련을 강조하라고 권고했다. 책임 있는 AI 응용기술 활용을 촉진하는 것 목표로 하는 응용서비스 워크그룹에서는 (1) 설명과 민감도에 기반하여 잠재적 활용 사례를 검토하고 평가하라; (2) AI 도구의 활용과 관련된 연방 정부의 자원(예: 미국 국립표준기술연구소와 정보기술 인프라 라이브러리 표준)을 숙지하라; (3) 강력한 데이터 거버넌스 및 관리 체계를 실천하라; (4) 이용 가능한 AI 자원의 현황을 정기적으로 평가하라; (5) 카운티의 사이버보안 조치를 업데이트하고 확대하라; (6) 생성형 AI 모델 학습에 사용되는 데이터를 위한 절차를 설계하라; 그리고 (7) 소프트웨어, 하드웨어 및 조달에 관한 최소 기준과 필요 사항을 결정하라 등을 권고하고 있다. 마지막으로 인력준비를 위한 인력 워크그룹에서는 (1) 기술 개발, 교육 및 역량 강화에 중점을 두라; (2) 각 카운티 정부의 필요에 가장 적합한 기술 습득 방안을 검토하라; (3) 중장기 인력 전략을 수립하라; 그리고 (4) 카운티 공무원 노동조합, 숙련 기술 인력, 그리고 전체 카운티 공무원에게 정보를 제공하고 의견을 수렴하라 라고 권고하고 있다.
카운티 정부와 마찬가지로 35,705개의 개별적인 기초자치단체의 AI 거버넌스를 살펴보기 보다는 2,700개 이상의 시정부를 대표하는 전미 시정부 연맹(National League of Cities)에서 최근에 발표한 시정부 AI거버넌스 리포트에서 중요한 내용을 살펴보고자 한다. 전미 시정부 연맹은 시정부의 AI 거버넌스 계획에서 나타난 6개의 핵심 가치로 책임성(Accountability), 투명성(transparency), 개인정보보호(Privacy Protection), 공평과 형평(Fairness & Equity), 안전과 보안(Safety & Security), 그리고 교육과 훈련(Education & Training)을 발표했다(National League of Cities, 2024). 이는 위에서 논의한 전미 카운티 정부 협의회의 윤리워크그룹에서 권고한 내용과 유사하다. 즉 전미 시정부 연맹에서 발표한 시정부의 AI 거버넌스의 핵심 가치는 AI 개발, 도입, 활용에 있어서 윤리적 측면을 강조하고 있다고 볼 수 있다.
이 리포트에 따르면 책임성 가치를 실현하기 위해서는 AI 시스템 운영자가 그 결과에 대해 책임져야 할 의무가 있고 부정적인 영향이나 부정행위 문제를 추적, 감사, 대응할 수 있는 메커니즘이 마련되어야 한다. 또한 책임성을 확보하려면, AI의 개발과 운영에 관여하는 이해관계자 및 의사결정자 간에 명확한 역할과 책임이 분담되어야 한다고 강조하고 있다. 투명성은 시민의 신뢰를 구축하고, 실질적인 피드백 참여 경로를 마련하는 데 목적이 있다. 투명성을 확보하기 위해서는 AI 시스템의 절차, 의사결정, 그리고 결과는 대중에게 공개되고 그 내용은 이해 가능해야 하고, 여기에는 누가 해당 시스템에 책임이 있는지, 어떻게 관리되고 있는지, 어떤 데이터를 필요로 하는지에 대한 정보 제공이 포함되어야 한다. 개인정보보호를 위해서는 개인의 개인정보는 무단 사용으로부터 보호되어야 하고 AI의 활용은 개인정보와 관련된 기존의 법률, 규정, 관행을 준수해야 한다. 그리고 민감한 개인정보는 오픈 AI 시스템과 공유되지 않도록 해야 한다.
또한 이 리포트는 공평과 형평성 가치를 실현하고 위해서는 AI 시스템의 도움을 받아 어떤 결정을 할 때는 기존의 불평등을 심화시키지 않도록 신중해야 하고 AI 시스템이 생성할 수 있는 차별이나 편향된 결과를 완화하기 위한 조치가 마련되어야 하며, 시정부의 리더들은 “AI의 혜택에 대한 시민들의 동등한 접근을 촉진하기 위해 노력해야 한다”라고 강조하고 있다. 이 리포트는 안전과 보안을 충분히 향상시키기 위해서 시정부의 리더와 관리자는 AI 시스템이 신뢰할 수 있고 각종 위협으로부터 보호되도록 해야 한다는 원칙을 세우고, 이 원칙에는 사람과 재산에 대한 피해를 방지하기 위한 보호 장치를 마련하고, AI 시스템이 의도된 대로 작동하도록 보장하며, 사이버 공격이나 기타 악의적인 활동으로부터 시스템을 보호하는 조치를 포함해야 한다고 제안하고 있다. 또한, AI 기술과 관련된 실패나 예상치 못한 상황에 대비한 비상 대응 계획 수립도 마련해야 하고 공무원의 교육과 훈련을 향상시키기 위해서 시 공무원 개개인은 AI를 효과적이고 책임감 있게 활용할 수 있는 지식과 역량을 갖추어야 하며 시 공무원들에게 AI 윤리와 활용 사례에 대한 교육이 제공되어야 하고, 이러한 교육은 기술의 발전과 새로운 응용 분야에 맞춰 지속적으로 업데이트해야 한다고 제안하고 있다.
AI 거버넌스의 일반적인 과제로 많이 논의되는 내용은 기술 전문성 및 자원 부족 (예: 인력부족, 제한된 예산, 외주업체에 대한 의존), 데이터 문제, 윤리적 및 사회적 문제 (예: 편향 및 차별, 프라이버시 및 보안, 투명성 및 책임성), 인력 및 운영 영향 및 규제 환경이다.
전문성 및 자원 부족: 많은 지방정부는 AI 도구를 효과적으로 평가, 관리 및 감독하는 데 필요한 기술 전문성과 인력이 부족하다. 제한된 예산과 재정은 AI 도입에 필요한 인프라, 소프트웨어, 교육에 대한 투자가 부족하다. AI전문성을 가진 외부업체에 대한 의존은 투명성과 책임성이 제한적인 “블랙박스 솔루션”으로 이어질 수 있으며, 이는 지방정부가 사용하는 AI 시스템을 이해하고 통제하는 것을 더욱 어렵게 만든다.
데이터 문제: 지방정부는 파편화되고 여러 부서에 분산되어 있는 데이터로 어려움을 겪는 경우가 많으며, 다양한 형식과 기술로 저장된 데이터는 통합 및 분석을 복잡하게 만들어 AI 시스템의 개발 및 효과를 저해한다. 더 근본적으로는 불량한 품질 또는 일관성 없는 데이터는 AI 애플리케이션의 통찰력과 결정의 결함으로 이어질 수 있다.
윤리적 및 사회적 문제: AI 시스템은 역사적 데이터에 존재하는 편향을 의도치 않게 지속하거나 확증편향을 일으킬 수 있으며, 이는 법 집행, 채용 또는 혜택 할당과 같은 영역에서 차별적인 결과를 초래할 수 있다. 그리고 AI 애플리케이션은 종종 민감한 개인 데이터에 의존하므로 프라이버시 침해 및 오용에 대한 우려가 늘 존재한다. 또한 AI 시스템이 자율적으로 작동할 때 의사 결정을 추적하고 설명하기 어려울 수 있으며, 이는 책임성에 대한 우려와 잠재적인 공공 신뢰의 하락으로 이어질 수 있다. 마지막으로 시민들은 불충분하게 규제되거나 통제된다고 인식되는 혁신을 받아들이기를 주저할 수 있으며, 이는 지역 사회와 지방 당국 간의 신뢰 붕괴로 이어질 수 있다.
인력 및 운영: 많은 공무원들은 AI와 효과적으로 협력하는 데 필요한 기술이 부족하다. 그리고 시대에 뒤떨어진 규정이나 절차, 조급함과 같은 요인으로 인해 발생하는 공무원의 무단 또는 통제되지 않은 AI 사용은 데이터 프라이버시, 보안, 투명성 및 규정 준수에 위험을 초래할 수 있다. 또한 AI가 임무 효율성에 미치는 영향을 측정하기 어려울 수 있으므로 투자 및 자원 할당을 효과적으로 정당화하기 어렵다.
규제 환경: 기존의 규제정책은 빠르게 발전하는 AI 기술을 효과적으로 통제하거나 촉진하기 힘들어 정부와 시장은 AI가 만들어내는 새로운 위험과 기회를 따라잡기 어렵게 만든다.
위에서 논의한 일반적인 AI거버넌스 과제 중에서 혹은 이외에 과제 중에서 미국의 카운티와 지방자치단체 정부가 효과적이고 윤리적인 AI 거버넌스를 구축하고 집행하는 데 있어 현실적으로 직면하고 있는 시급한 혹은 덜 시급한 도전과제는 무엇이고 그 우선순위는 어떠할까? 최근 국제 지방정부 관리자 협회 (International City/County Management Association)에서 실시한 두개의 설문조사 결과는 이 질문에 대한 시사점을 주고 있다.
첫 번째 설문조사는 2,000명의 주정부 및 지방정부 공무원들을 대상으로 2025년 1월 실시되었고 2025년 6월에 발표되었다 (MissionSquare Research Institute, 2025). 이 설문에 참여한 주정부 및 지방정부 공무원이 일상 업무에서 AI 사용에 대해 가장 중요하게 우려하고 사항은 데이터 프라이버시 및 보안으로, 설문 참여자의 45%가 주요 문제로 꼽았으며, AI 시스템의 신뢰성(예: 데이터 환각)은 두 번째 주요 우려 사항(37%)으로, 잠재적인 부정확성이나 편향된 결과에서 비롯된 것으로 보인다.
다른 우려 사항으로는 AI 알고리즘의 편향(33%), AI 의사결정의 투명성(31%), 구현 비용(28%) 등이 있다. 직무 대체/교체는 일부 직원(20%가 매우 우려)에게는 걱정거리이지만, 대다수(63%)는 크게 걱정하지 않는다. 교육 요구사항 또한 우려 사항이지만 절반 이상(58%)은 광범위한 재교육 필요성에 대해 크게 걱정하지 않으며, 20%는 매우 우려한다.
두 번째 설문조사에서는 (International City/County Management Association, 2024) 특히 지방정부 실무자들이 AI 도입에 대해 어떠한 중요한 내부 장벽을 지적하고 있는지를 보여주고 있다. 가장 중요한 내부 과제로 응답자의 76.6%가 AI 인식/이해 부족이라고 꼽았다. 훈련된 인력 부족은 두 번째로 많이 언급된 장애 요인이다(53.0%). 다른 주목할 만한 장벽으로는 AI 사용에 대한 조직 정책 및 절차 부재(41.2%), 불충분한 자금(39.3%), 규제 및 법적 준수 문제(22.0%)가 있다.
마지막으로 덜 일반적인 장벽은 조직의 AI 사용에 대한 의지 부족(19.2%)과 지역 선출직 공무원의 지원 부족(9.7%)이다. 이 설문조사에서 지방정부 실무자들은 또한 AI 사용과 관련된 시급한 시사점을 강조하고 있다. 이들이 인식하는 가장 큰 우려 사항은 AI가 생성한 허위 정보/오보가 공공 정책에 부당하게 영향을 미치는 것으로, 69.3%가 이를 꼽았다. 두 번째로 시급한 시사점으로는 대중의 인식과 신뢰(투명성, 책임성)이었다 (56.0%). 추가적인 시사점으로는 사이버 공격 증가 가능성(47.2%)과 지방정부가 보유한 주민 데이터의 프라이버시 및 보안(45.8%)이 있다. 덜 시급한 시사점으로 디지털 격차/접근성/형평성 고려 사항(20.4%), 인력 대체 및 재교육(12.3%), 그리고 다른 주요 이해관계자들과의 조직 및 부문 간 협력 방법(11.9%)이라고 응답하였다.
이러한 과제를 해결하려면 지방정부뿐만 아니라 주 및 연방 기관, AI기술 공급업체, 시민 및 학자들을 포함하는 포괄적이고 협력적인 접근 방식이 필요하다. 여기에는 명확한 거버넌스 프레임워크 개발, 인력 교육 및 개발 투자, 데이터 품질 및 보안 우선순위 지정, 투명성과 책임성을 통한 공공 신뢰 구축, AI 기술의 진화하는 환경 및 지역사회에 미치는 영향에 대한 적응이 포함된다.
협력적 거버넌스 체계 구축이 요구된다. 예를 들어 각 지방정부를 대표하는 시도지사 협의회 같은 지방정부 협의체나 민간의 정보기술 업체와 각 지방정부의 정보기술 담당자들과의 오랜 협업 경험이 있는 한국지역정보개발원 같은 정보기술에 전문적인 지방정부 협의체들이 적극적으로 AI 거버넌스 구축을 위한 로드맵, 원칙, 구체적인 가이드라인을 고민하고 만들어 각 개별 지방정부가 참고할 수 있게 해야 한다. AI 거버넌스의 원칙으로 효율적이면서 윤리적이고 책임을 갖고 AI를 활용해야 함을 강조해야 할 것이다. 구체적인 가이드라인은 미국 전미 카운티 협의회와 전미 시정부 연맹에서 제안한 내용들을 참고할 만하다.
각 광역자치단체 뿐만 아니라 기초자치단체에서도 현재 도입하여 활용 중인 혹은 도입 예정인 모든 AI 응용서비스나 프로그램의 목록을 만들어 지속적으로 관리하고 평가해야 한다. 이 목록을 작성할 때 미국 연방정부에서 사용하고 있는 AI활용사례 인벤토리가 공개되어 있으니 이를 참고할 수 있을 것이다. 특이 이 목록에서 중요한 분류 기준으로 현재 도입하여 사용 중인 혹은 도입 예정인 AI 응용서비스나 프로그램을 개인의 권리나 안전에 영향을 주는지의 여부를 다양한 평가를 통해 우선 지정하기를 권고한다.
현재 AI 거버넌스를 계획하고 준비하고 집행하는 과정에서 각 지방정부들은 어떠한 구체적인 도전과제들이 있는지 파악할 수 있는 기회가 될 것이다. 지금 당장 인력과 예산이 부족하다고 AI거버넌스를 고민하거나 계획하지도 않는다면 어떠한 도전과제가 있을지 정확하고 시기적절하게 파악할 수 없게 되고 그러면 지금 같이 빠르게 변하는 AI 기술 발전에 뒤처지고 기회를 잃게 될 수 있다.
• Attard-Frost, B., Brandusescu, A., & Lyons, K. (2024). The governance of artificial intelligence in Canada: Findings and opportunities from a review of 84 AI governance initiatives. Government Information Quarterly, 41(2), 101929. https://doi.org/10.1016/j.giq.2024.101929
• European Parliamentary Research Service. (2019). EU guidelines on ethics in artificial intelligence: Context and implementation (EPRS Briefing No. 640163) [PDF]. European Parliament.https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/640163/EPRS_BRI(2019)640163_EN.pdf
• International City/County Management Association. (2024, October 31). ICMA survey research: Artificial intelligence in local government [Survey report]. ICMA. https://icma.org/documents/icma-survey-research-artificial-intelligence-local-government
• International Association of Privacy Professionals. (2025, July 15). US State AI Governance Legislation Tracker. IAPP. https://iapp.org/resources/article/us-state-ai-governance-legislation-tracker/
• MissionSquare Research Institute. (2025, May). Artificial intelligence in the workforce: A survey of state and local employees [PDF]. MissionSquare Research Institute. Retrieved from https://research.missionsq.org/content/media/document/2025/5/Artificial_Intelligence_StateLocalEmployees.pdf
• National Association of Counties. (2024, July 8). AI County Compass: A comprehensive toolkit for local governance and implementation of artificial intelligence. National Association of Counties.https://www.naco.org/resource/ai-county-compass-comprehensive-toolkit-local-governance-and-implementation-artificial
• National Conference of State Legislatures. (2024, November 22). Artificial Intelligence in government: The federal and state landscape. https://www.ncsl.org/technology-and-communication/artificial-intelligence-in-government-the-federal-and-state-landscape
• National Institute of Standards and Technology. (2025, August 6). AI standards. U.S. Department of Commerce. https://www.nist.gov/artificial-intelligence/ai-standards
• National League of Cities. (2024, June 25). City AI Governance Dashboard. National League of Cities. Retrieved August 8, from https://www.nlc.org/resource/city-ai-governance-dashboard/
• Smaldone, A., & Wright, M. L. J. (2024, March 14). Local governments in the U.S.: A breakdown by number and type. Regional Economist, Federal Reserve Bank of St. Louis. https://www.stlouisfed.org/publications/regional-economist/2024/march/local-governments-us-number-type
• State of California, Government Operations Agency; California Department of Technology; Department of General Services; Office of Data and Innovation; Department of Human Resources. (2024, March). GenAI guidelines for public sector procurement, use, and training (PDF). https://www.govops.ca.gov/wp-content/uploads/sites/11/2024/03/3.a-GenAI-Guidelines.pdf
• State of Arizona, Office of the Governor, Strategic Enterprise Technology Office. (2024, March). P2000 – Generative artificial intelligence (Gen AI) policy (PDF). Arizona Department of Administration. https://www.aset.az.gov/sites/default/files/2024-03/P2000%20-%20Generative%20AI%20Policy.pdf
• State of California, Office of the Governor. (2023, September 6). Executive Order N-12-23: Generative artificial intelligence (GenAI) (PDF). https://www.gov.ca.gov/wp-content/uploads/2023/09/AI-EO-No.12-_-GGN-Signed.pdf
• The White House. (2025). America's AI Action Plan. https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf
• Office of Management and Budget. (2024, March 28). Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence (M-24-10). https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf