로그아웃 하시겠습니까?

  • 주제별 국가전략
  • 전체

装備品等の研究開発における責任ある AI適用ガイドライン(第1版)
(장비품 등의 연구개발에 있어 책임 있는 AI 적용 가이드라인 (제1판))

□ 일본 방위성이 인공지능(AI)을 활용한 무기의 연구·개발에 대한 첫 지침을 책정하여 발표함
   ㅇ 이 지침은 지난해 7월 처음 제시된 방위성의 'AI 활용을 위한 기본 방침'에 기반함
   ㅇ 기본 방침은 ▲목표 탐지·식별 ▲정보 수집·분석 ▲지휘통제 ▲후방 지원 ▲무인기(드론) 등 무인 장비 ▲사이버 안보 ▲사무 처리  등 7가지 핵심 분야를 설정하고 인간 관여의 필요성을 명기함
   ㅇ 인간이 관여하지 않아도 AI가 자율적으로 목표물을 정해 교전하는 '자율형 살상 무기 시스템'(LAWS)는 연구·개발을 허용하지 않기로 하고, AI 무기 개발 시 인간 책임을 명확히 한다고 규정함

□ 지침의 핵심 내용은 AI 활용에 따른 위험을 줄이면서 혜택을 극대화하는 것임
   ㅇ AI 위험성 관리의 기준을 제시하고, 일본 내 무기 개발 시 AI 활용을 촉진하려는 의도도 포함됨
   
□ AI 탑재 무기 연구·개발 심사는 세 단계로 진행
   ㅇ 1단계: AI 무기를 '고위험'과 '저위험'으로 나누며, 고위험은 AI가 대상을 특정해 바로 공격할 수 있는 무기저위험은 공격 시 인간 판단이 개입되는 무기에 해당함
   ㅇ 2단계: 고위험 무기로 분류되면 국제법·국내법 준수 여부,  '자율형 살상 무기 시스템'(LAWS) 해당 여부 등 법률 관련 심사를 실시하고, LAWS로 판단되면 연구·개발을 허용하지 않음
   ㅇ 3단계: 인간의 AI 무기 통제 여부, 안전성 확보, 검증 가능성 및 투명성 확보 등 기술 관련 심사를 실시
   ㅇ 기술 심사는 전문가 회의에서 진행되며, 운영자 참여 가능 여부 등 '인간 책임의 명확화', 오작동을 줄이는 '안전성 확보', AI 시스템의 '검증 가능성 및 투명성 확보' 등 7가지 요건을 확인함
   ㅇ 저위험 무기는 방위성 등이 자체 점검을 실시함
   ㅇ 심사 시기는 심사 체계가 정비되는 내년 이후가 될 전망임

□ AI 무기는 오판 우려 등 위험성 때문에 국제적으로 개발 규제 방식이 논의되고 있음


 
[출처] 日, 'AI무기 지침' 첫 발표…통제 못하는 무기 개발 제한 (2025.06.07.) / 연합뉴스
          日, AI무기 연구·개발 첫 지침…'자율형 살상무기 금지'  (2025.06.08.) / 뉴시스

목차

1 本ガイドライン策定の背景  1
    (1) 諸外国の軍事領域におけるAIの責任ある利用に関する取組状況  1
    (2) AIの軍事利用に関する国際的な議論及び我が国の見解  2
2 本ガイドラインの位置付け  4
3 AI装備品等の研究開発における確認事項  5

    (1) 準拠すべき要件の設定  5
4 AI装備品等の研究開発における実施事項  7
    (1) AI装備品等の分類  7
    (2) 法的政策的審査  8
    (3) 技術的審査  10
    (4) その他  12
5 まとめ  13

해시태그

#AI무기규제 # 일본AI무기지침 # 자율형살상무기 # LAWS

AI 100자 요약·번역서비스

인공지능이 자동으로 요약·번역한 내용입니다.

装備品等の研究開発における責任ある AI適用ガイドライン(第1版)

(장비품 등의 연구개발에 있어 책임 있는 AI 적용 가이드라인 (제1판))