□ '프론티어 AI'란 지난 7월 AI 거버넌스 센터의 정책 책임자 마커스 안더융 박사가 발표한 논문에 등장한 개념으로, 위험한 능력을 발휘할 수 있는 고도의 기초 모델을 의미함. 논문에 따르면 기초 모델은 일종의 생성 AI이며, 이러한 모델을 의도적으로 계속해서 만들어낼 경우 신체적 피해에서부터 세계적 규모의 사회 붕괴까지 다양한 위험을 초래할 수 있다고 경고함
□ 보고서는 AI 기술에 대한 적절한 보호 장치가 없다면 사회 전반에 걸쳐 상당한 위험을 초래할 수 있다고 경고하고 있음. 이에 영국 정부는 프론티어 AI 조직을 신설하고, 인공지능 기술의 오용, 통제력 상실, 사회적 피해 등 최첨단 AI로 인한 위험을 잘 관리하여 해결하고, 첨단 AI 개발 및 배포의 안전성을 높이는 데 중요한 역할을 하겠다고 밝혔음
[출처]
Leading frontier AI companies publish safety policies (2023.10.27.) / U.K. Department for Science, Innovation & Technology
영국 과기부, AI 안전 서밋 개최 앞서 '프론티어 AI' 중심 기조 발표 (2023.09.05.) / IT World
목차
Executive Summary 2
Key terms 8
Responsible Capability Scaling 9
Summary 9
Background 10
Practices 10
Model Evaluations and Red Teaming 15
Summary 15
Background 15
Practices 16
Model Reporting and Information Sharing 19
Summary 19
Background 19
Practices 20
Security Controls Including Securing Model Weights 24
Summary 24
Background 25
Practices 25
Reporting Structure for Vulnerabilities 29
Summary 29
Background 29
Practices 30
Identifiers of AI-Generated Material 32
Summary 32
Background 32
Practices 33
Prioritising Research on Risks Posed by AI 34
Summary 34
Background 34
Practices 35
Preventing and Monitoring Model Misuse 37
Summary 37
Background 37
Practices 38
Data Input Controls and Audits 41
Summary 41
Background 41
Practices 42
Acknowledgements 45