
□ 국가 안보에서 AI의 사용은 필수적인 요소가 되고 있으며, 이를 효과적으로 관리하기 위한 거버넌스 프레임워크가 필요함. 이 보고서는 미국 정부의 AI 활용을 규제하고 위험을 최소화하기 위한 주요 원칙과 지침을 제공함. AI 기술의 발전이 국가 안보에 기여할 수 있지만, 동시에 민주적 가치, 인권, 시민 자유, 프라이버시, 안전 등의 측면에서 위험을 초래할 가능성이 있음. 따라서 AI 시스템의 신뢰성과 책임성을 보장하기 위해 법적·윤리적 기준을 준수해야 함
□ 이 프레임워크는 AI 사용 제한, 최소 위험 관리 절차, AI 모니터링 및 기록, 교육과 책임성 강화의 네 가지 주요 원칙을 중심으로 구성됨. 먼저, AI 사용 제한 부문에서는 불법적이거나 과도한 위험을 초래할 가능성이 있는 AI 적용 사례를 금지함. 예를 들어, AI가 개인의 감정을 분석하거나 생체 데이터를 기반으로 인종, 성별, 정치적 성향을 추론하는 행위는 금지됨. 또한, 군사적 의사 결정에서 인간의 개입 없이 AI가 핵무기 사용 여부를 결정하는 것도 금지됨
□ 최소 위험 관리 절차에서는 AI 시스템을 도입하기 전 사전 위험 평가를 수행하고, 인간의 효과적인 감독을 보장해야 함. 특히, 연방 정부 인력에 영향을 미치는 AI 사용의 경우, AI가 채용, 승진, 성과 평가 등에 단독으로 영향을 미치지 않도록 추가적인 보호 조치가 필요함. 또한, AI 기술의 오작동이나 편향된 결과를 방지하기 위해 지속적인 모니터링과 피드백 시스템을 구축해야 함
□ AI의 모니터링 및 기록 부분에서는 AI 사용 사례를 연간 단위로 문서화하고, 데이터 관리 및 투명성을 강화해야 함. 이를 위해 각 정부 기관은 AI 거버넌스 위원회를 구성하고, 주요 AI 사용 사례에 대한 지속적인 감사를 수행해야 함. 또한, AI의 데이터 품질과 신뢰성을 확보하고, 시민 자유와 프라이버시를 보호하는 데이터 관리 기준을 마련해야 함
□ 마지막으로, 교육과 책임성 강화를 위해 정부 기관의 모든 AI 관련 인력을 대상으로 AI 책임성과 윤리적 사용에 대한 교육을 의무화함. AI 개발자, 운영자, 정책 결정자들이 AI의 한계를 이해하고, 신중한 의사 결정을 내릴 수 있도록 필요한 지침을 제공해야 함. 또한, AI 오용 사례에 대한 보고 및 조사 체계를 구축하여, 책임을 명확히 하고 공정성을 유지해야 함
□ 결론적으로, AI가 국가 안보 분야에서 효과적으로 활용되려면, 법적·윤리적 기준을 준수하고 강력한 관리 및 감독 체계를 마련해야 함. 본 프레임워크는 AI 사용의 투명성을 높이고, 민주적 가치와 국가 안보 간 균형을 유지하기 위한 중요한 정책적 기반을 제공함
목차
Title page
Contents
Overview 3
Scope 3
Pillar I: AI Use Restrictions 4
Prohibited AI Use Cases 4
High-Impact AI Use Cases 5
AI Use Cases Impacting Federal Personnel 6
Additional AI Use Restrictions 6
Pillar II: Minimum Risk Management Practices for High-Impact and Federal Personnel-Impacting AI Uses 7
Risk and Impact Assessments and Ensuring Effective Human Oversight 7
Additional Procedural Safeguards for AI Impacting Federal Personnel 9
Waivers 9
Chief AI Officers 10
Pillar III: Cataloguing and Monitoring AI Use 10
Inventory 10
Data Management 10
Oversight and Transparency 11
Pillar IV: Training and Accountability 14