ISO/IEC 42001 가이드

오픈소스 관점에서 ISO/IEC 42001 AI 관리 시스템 표준을 풀어 설명하는 가이드다. AI 시스템 개발·운영에서 오픈소스 컴플라이언스와 교차하는 핵심 요구사항을 다룬다.

이 가이드는 오픈소스 담당자 관점에서 ISO/IEC 42001(AI Management System)의 요구사항 중 오픈소스 관리와 교차하는 핵심 항목을 풀어서 설명한다. AI 시스템에서 오픈소스 프레임워크, 사전 훈련 모델, 학습 데이터셋을 사용할 때 무엇을 준수해야 하는지, AI SBOM은 어떻게 구성하는지 실무 중심으로 안내한다.

Author : OpenChain Korea Work Group / CC BY 4.0

ISO/IEC 42001이란?

ISO/IEC 42001:2023은 조직이 AI 시스템을 책임감 있고 투명하게 개발·운영·관리하기 위한 AI 관리 시스템(AIMS, AI Management System) 국제 표준이다.

항목내용
정식 명칭ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system
제정 기관ISO/IEC JTC 1/SC 42 (인공지능)
제정 연도2023
표준 계열ISO 경영 시스템 표준 (ISO 9001, ISO 27001과 동일 구조)
적용 대상AI 제품·서비스를 개발, 제공, 사용하는 모든 조직

이 가이드의 포지셔닝

ISO/IEC 42001 준수 확인 방법

ISO 42001은 OpenChain처럼 공식 자가 인증 체크리스트를 제공하지 않는다. 조직은 다음 세 가지 방법으로 준수 여부를 확인하거나 선언할 수 있다.

방법 1. 자체 갭 분석 (Self-assessment)

조직이 내부적으로 ISO 42001의 각 조항(“shall” 요구사항)을 검토하여 현재 수준을 평가하고 개선 계획을 수립한다. 비용이 없으며 이 가이드의 체크포인트를 활용할 수 있다.


방법 2. 제2자 심사 (Second-party assessment)

고객사 또는 파트너사가 직접 조직의 AI 관리 시스템을 평가한다. 공급망 신뢰 구축 목적에 활용된다.


방법 3. 제3자 인증 (Third-party certification)

BSI, TÜV SÜD 등 ISO 인증기관이 심사하여 공식 ISO 42001 인증서를 발급한다. ISO 27001 인증과 동일한 방식으로 운영된다.

가이드 구성

이 가이드는 ISO/IEC 42001의 §4–§10 구조를 따르되, 오픈소스 교차점이 있는 섹션을 중심으로 구성한다.

섹션ISO 42001 조항오픈소스 교차점
표준 비교ISO 5230·18974·42001 관계
1. 조직 맥락과 리더십§4·§5AI 정책에 OSS 원칙 포함
2. 기획§6AI 리스크 평가, OSS 라이선스·취약점 리스크
3. 지원§7AI OSS 역량, AI SBOM 문서화
4. 운영§8OSS 프레임워크·데이터셋·공급망
AI 시스템의 오픈소스 관리§8.5·§8.6OSS 라이선스 컴플라이언스
AI SBOM§7.5·§8.5AI SBOM 구성 및 유지
AI 공급망 검증§8.8외부 OSS 모델 조달 검증
5. 성과 평가와 개선§9·§10OSS 컴플라이언스 지표

AI Work Group과의 연계

OpenChain Korea Work Group의 AI Work Group은 AI SBOM 컴플라이언스 가이드를 개발하고 있다. 이 가이드의 AI SBOM 섹션은 AI Work Group의 산출물과 연계된다.

1 - ISO 5230 · 18974 · 42001 비교

ISO/IEC 5230(라이선스 컴플라이언스), ISO/IEC 18974(보안 보증), ISO/IEC 42001(AI 관리 시스템) 세 표준의 목적, 구조, 오픈소스 관련성을 비교한다.

1. 세 표준의 관계

오픈소스를 사용하는 AI 시스템을 개발하는 기업은 세 가지 표준이 교차하는 지점에 있다.

flowchart LR
    subgraph oss["오픈소스 관리"]
        A["ISO/IEC 5230\n라이선스 컴플라이언스\n(라이선스·SBOM·산출물)"]
        B["ISO/IEC 18974\n보안 보증\n(취약점 탐지·대응·CVD)"]
    end

    subgraph ai["AI 시스템 관리"]
        C["ISO/IEC 42001\nAI 관리 시스템\n(거버넌스·리스크·생애주기)"]
    end

    oss -- "AI 시스템 내\n오픈소스 컴플라이언스" --> ai

ISO 5230과 18974는 오픈소스 자체를 관리하는 표준이고, ISO 42001은 AI 시스템을 관리하는 표준이다. 두 영역은 독립적이지만, AI 시스템이 오픈소스를 활용할 때 교차점이 발생한다.


2. 표준 기본 정보 비교

비교 항목ISO/IEC 5230ISO/IEC 18974ISO/IEC 42001ISO/IEC 42003
상태발행 (2020)발행 (2023)발행 (2023)개발 중
제정 기관OpenChain Project → ISOOpenChain Project → ISOISO JTC 1/SC 42ISO JTC 1/SC 42
관리 주체Linux Foundation OpenChainLinux Foundation OpenChainISOISO
표준 계열OpenChain 특화 표준OpenChain 특화 표준ISO 경영 시스템 표준ISO 42001 구현 가이드
대상소프트웨어 공급망의 오픈소스오픈소스 보안 취약점AI 시스템 전체ISO 42001 구현 방법
핵심 관리 대상라이선스 의무 이행CVE 탐지·대응AI 거버넌스·생애주기AI SBOM·투명성 포함

3. 요구사항 형태 비교

세 표준은 요구사항을 표현하는 방식이 근본적으로 다르다.

ISO/IEC 5230 · 18974 방식: 입증자료 번호 체계

각 조항마다 기업이 제출해야 할 **입증자료(Verification Material)**를 번호로 명시한다.

§3.1.1 정책
  입증자료:
  - 3.1.1.1 문서화된 오픈소스 정책
  - 3.1.1.2 정책 전파 절차

입증자료가 있으면 ✅ 충족, 없으면 ❌ 미충족으로 명확하게 판단할 수 있다.

ISO/IEC 42001 방식: 경영 시스템 shall 요구사항

조항마다 “조직은 ~해야 한다(shall)“는 형태의 원칙적 요구사항을 제시하며, 어떤 문서나 기록으로 충족할지는 조직이 맥락에 맞게 결정한다.

§5.2 AI 정책
  "최고경영진은 AI 정책을 수립해야 한다(shall). 
   AI 정책은 조직의 목적에 적합해야 하며..."

이 때문에 ISO 42001은 ISO 5230/18974처럼 단순 체크리스트로 자가 인증을 하기 어렵고, 내부 갭 분석 또는 외부 인증기관의 심사가 필요하다.


4. 자가 인증 방법 비교

비교 항목ISO/IEC 5230ISO/IEC 18974ISO/IEC 42001
공식 자가 인증 도구OpenChain 온라인 체크리스트OpenChain 온라인 체크리스트없음
자가 인증 비용무료무료무료 (단, 내부 공수 필요)
자가 인증 근거체크리스트 완료 선언체크리스트 완료 선언내부 갭 분석 후 자체 선언
독립 평가OpenChain 파트너사OpenChain 파트너사컨설팅 기관
제3자 인증OpenChain 공인 기관OpenChain 공인 기관BSI, TÜV SÜD 등 ISO 인증기관
인증 갱신18개월18개월ISO 인증기관 계약에 따름

5. 오픈소스 관련성 비교

ISO 42001 조항오픈소스 교차 내용대응 ISO 5230대응 ISO 18974
§5.2 AI 정책OSS 사용 원칙 AI 정책 포함§3.1.1 정책§4.1.1 정책
§6.1.2 AI 리스크 평가OSS 라이선스·취약점 리스크§4.3.2 보안 보증
§6.1.4 AI 영향 평가OSS 컴포넌트 영향 분석§4.1.5 표준 관행
§7.2 역량OSS 컴플라이언스 역량§3.1.2 역량§4.1.2 역량
§7.5 문서화AI SBOM§3.3.1 SBOM§4.3.1 SBOM
§8.5 AI 생애주기OSS 프레임워크 라이선스§3.3 콘텐츠 검토§4.3 콘텐츠 검토
§8.6 AI 데이터오픈 데이터셋 라이선스§3.3.2 라이선스
§8.8 외부 AI 조달OSS 모델 공급망 검증§3.3 콘텐츠 검토§4.3.2 보안 보증
§9.1 성과 평가OSS 컴플라이언스 지표§3.6 준수§4.4 준수

6. 어떤 표준부터 시작해야 하는가?

오픈소스 컴플라이언스 체계가 없다면

ISO/IEC 5230 부터 시작한다. 라이선스 관리, SBOM, 정책, 교육의 기반을 구축한다.


ISO 5230 체계가 있고, AI 개발도 하고 있다면

ISO/IEC 18974 + ISO/IEC 42001 을 병행 검토한다.

  • ISO 18974: AI 시스템에 사용된 오픈소스 취약점 관리 강화
  • ISO 42001: AI 시스템 전체 거버넌스 수립 (오픈소스 교차 요건 포함)

두 표준은 상호 보완적이므로 동시에 추진하면 중복 작업을 줄일 수 있다.


AI 시스템을 개발·서비스하는 기업이라면

ISO/IEC 42001 의 오픈소스 교차 요구사항을 먼저 점검한다. 이 가이드의 운영 섹션이 AI 시스템에서 당장 확인해야 할 항목을 안내한다.


AI SBOM 의무화 동향을 따라가고 싶다면

ISO/IEC 42003 동향을 주시한다. OpenChain AI Work Group은 AI SBOM 컴플라이언스 가이드를 ISO 42003에 반영하는 것을 추진 중이다. EU Cyber Resilience Act(CRA)도 AI 시스템의 투명성 수단으로 AI SBOM을 요구하는 방향으로 논의되고 있다.


7. 세 표준 동시 운영 시 공통 기반

세 표준을 동시에 준수할 때 하나의 기반으로 활용 가능한 공통 요소:

공통 기반 요소ISO 5230ISO 18974ISO 42001
오픈소스 정책✅ §3.1.1✅ §4.1.1✅ §5.2 (AI 정책에 포함)
역할·책임 문서✅ §3.1.2✅ §4.1.2✅ §5.3
역량·교육 기록✅ §3.1.2✅ §4.1.2✅ §7.2
SBOM / AI SBOM✅ §3.3.1✅ §4.3.1✅ §7.5
리스크 평가✅ §4.3.2✅ §6.1.2
외부 문의 대응✅ §3.2.1✅ §4.2.1✅ §8.7 (피드백 채널)
준수 확인·갱신✅ §3.6✅ §4.4✅ §9·§10

2 - 1. 조직 맥락과 리더십

ISO/IEC 42001 §4(조직 맥락)와 §5(리더십) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 정책에 오픈소스 사용 원칙을 포함하는 방법을 안내한다.

1. 개요

ISO/IEC 42001 §4와 §5는 AI 관리 시스템의 기반이다. 조직이 어떤 AI 시스템을 운영하는지, 이해관계자가 누구인지, 최고경영진이 어떤 원칙으로 AI를 관리할지를 결정한다.

오픈소스 담당자 관점에서 §5.2(AI 정책)가 가장 중요한 교차점이다. AI 정책에 오픈소스 사용에 관한 원칙을 포함하면 ISO 5230 정책과 통합 운영이 가능하다.


2. §4 조직 맥락 — 오픈소스 관련 고려사항

§4.1 조직과 조직 맥락 이해

AI 관리 시스템의 목적에 영향을 미치는 내·외부 이슈를 파악할 때, 오픈소스 관련 외부 이슈를 포함한다:

  • 오픈소스 AI 모델의 라이선스 정책 변화 (예: Llama 라이선스 조건 변경)
  • 국내외 AI 관련 규제 및 오픈소스 의무 공개 요구
  • AI 공급망에서의 오픈소스 컴포넌트 보안 취약점 리스크

§4.3 AI 관리 시스템 범위 결정

AI 관리 시스템의 범위를 정의할 때, 오픈소스를 활용하는 AI 시스템과 프로세스를 명시적으로 포함한다.

체크포인트:

  • AI 관리 시스템 범위 문서에 오픈소스 프레임워크·모델·데이터셋을 활용하는 AI 시스템이 포함되어 있는가?
  • 오픈소스 라이선스 관련 외부 이슈가 조직 맥락 분석에 포함되어 있는가?

3. §5.2 AI 정책 — 오픈소스 원칙 포함 ★

ISO/IEC 42001은 조직이 AI 정책을 수립할 것을 요구한다. 오픈소스 컴플라이언스 관점에서 AI 정책에 다음 내용을 포함하면 ISO 5230 정책과 일관성을 유지할 수 있다.

AI 정책에 추가할 오픈소스 관련 원칙

## AI 시스템에서의 오픈소스 사용 원칙

본 조직은 AI 시스템 개발 및 운영에 오픈소스를 사용할 때 다음 원칙을 준수한다.

1. **라이선스 컴플라이언스**  
   AI 시스템에 사용하는 모든 오픈소스 프레임워크, 사전 훈련 모델, 학습 데이터셋의
   라이선스 조건을 검토하고 이행한다.

2. **AI SBOM 관리**  
   AI 시스템을 구성하는 오픈소스 컴포넌트(프레임워크, 모델, 데이터셋)를
   AI SBOM으로 문서화하고 최신 상태로 유지한다.

3. **보안 취약점 관리**  
   AI 시스템에 사용된 오픈소스 컴포넌트의 보안 취약점을 주기적으로 점검하고
   식별된 취약점에 신속히 대응한다.

4. **공급망 검증**  
   외부에서 조달하는 오픈소스 AI 모델 및 AI 서비스의 구성 요소와 라이선스를 확인한다.

기존 오픈소스 정책과의 통합

체크포인트:

  • AI 정책 또는 오픈소스 정책에 AI 시스템 오픈소스 사용 원칙이 포함되어 있는가?
  • AI 정책이 최고경영진의 승인을 받고 조직 내부에 전파되어 있는가?
  • 오픈소스 정책과 AI 정책 간 상충이 없는가?

4. §5.3 역할, 책임, 권한

AI 관리 시스템에서 오픈소스 관련 역할과 책임을 명확히 한다.

역할ISO 42001 책임오픈소스 관련 추가 책임
AI 거버넌스 책임자AI 정책 수립·감독AI 정책에 OSS 원칙 포함 보장
AI 개발 리드AI 시스템 생애주기 관리AI SBOM 생성·유지
오픈소스 프로그램 매니저(OSPM)AI 시스템 OSS 컴플라이언스 전반
보안 담당자AI 리스크 관리AI OSS 취약점 모니터링

5. 참고

3 - 2. 기획

ISO/IEC 42001 §6(기획) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 리스크 평가와 AI 시스템 영향 평가에 오픈소스 라이선스·취약점 리스크를 포함하는 방법을 안내한다.

1. 개요

ISO/IEC 42001 §6은 AI 시스템과 관련된 리스크와 기회를 체계적으로 파악하고 대응하는 방법을 요구한다. 특히 **§6.1.2(AI 리스크 평가)**와 **§6.1.4(AI 시스템 영향 평가)**는 오픈소스 컴포넌트로 인해 발생할 수 있는 리스크를 포함하는 데 직접 활용된다.


2. §6.1.2 AI 리스크 평가 — 오픈소스 리스크 포함 ★

ISO/IEC 42001은 AI 시스템과 관련된 리스크를 식별·분석·평가하는 프로세스를 요구한다. 오픈소스 담당자는 이 프로세스에 오픈소스 라이선스 리스크보안 취약점 리스크를 명시적으로 포함해야 한다.

오픈소스 관련 AI 리스크 유형

리스크 유형원인영향대응 방법
라이선스 비준수AI 모델의 커스텀 라이선스 조건 미확인법적 분쟁, 서비스 중단사용 전 라이선스 검토 의무화
GPL 오염Copyleft 라이선스 AI 컴포넌트와 독점 코드 결합소스 코드 공개 의무 발생라이선스 호환성 사전 검토
모델 라이선스 조건 위반MAU 제한, 용도 제한 조건 미충족라이선스 취소, 손해배상조건별 준수 여부 정기 점검
오픈소스 취약점AI 프레임워크 또는 의존성의 CVE시스템 침해, 데이터 유출정기 SCA 스캔, 패치 적용
데이터셋 라이선스 위반CC-BY-NC 데이터를 상업 서비스에 사용저작권 침해데이터셋 라이선스 재검토
공급망 리스크외부 오픈소스 모델의 라이선스 변경서비스 연속성 위협공급망 모니터링 체계 구축

AI 리스크 평가서에 포함할 오픈소스 항목

## AI 리스크 평가서 — 오픈소스 리스크 섹션

### 평가 대상 AI 시스템: [시스템명]
### 평가 일자: YYYY-MM-DD

| # | 리스크 항목 | 현재 사용 컴포넌트 | 가능성 | 영향도 | 리스크 수준 | 대응 조치 |
|---|------------|-----------------|:----:|:----:|:---------:|---------|
| 1 | 라이선스 비준수 | [모델명 · 라이선스] | 중 | 상 | 높음 | 법무 검토 |
| 2 | OSS 취약점 | [프레임워크명 · 버전] | 중 | 상 | 높음 | SCA 스캔 |
| 3 | 데이터셋 라이선스 | [데이터셋명 · 라이선스] | 저 | 중 | 중간 | 라이선스 재확인 |

체크포인트:

  • AI 리스크 평가 프로세스에 오픈소스 라이선스 리스크 항목이 포함되어 있는가?
  • AI 리스크 평가 프로세스에 오픈소스 보안 취약점 리스크 항목이 포함되어 있는가?
  • 리스크 평가 결과가 문서화되어 있는가?
  • 리스크 수준에 따른 처리 계획이 수립되어 있는가?

3. §6.1.4 AI 시스템 영향 평가 — 오픈소스 컴포넌트 영향 포함 ★

AI 시스템이 개인, 그룹, 사회에 미칠 수 있는 영향을 평가할 때, 오픈소스 컴포넌트로 인한 영향도 포함한다.

오픈소스 관련 영향 평가 항목

평가 항목고려 사항
보안 취약점으로 인한 영향오픈소스 AI 컴포넌트의 알려진 취약점이 AI 시스템 사용자에게 미치는 보안 위협
저작권 문제로 인한 서비스 중단 영향라이선스 비준수로 인한 서비스 중단이 사용자에게 미치는 영향
학습 데이터 출처 투명성오픈 데이터셋 사용 시 데이터 출처와 사용 조건의 투명한 공개

체크포인트:

  • AI 시스템 영향 평가 항목에 오픈소스 컴포넌트 관련 보안·법적 영향이 포함되어 있는가?
  • 영향 평가가 AI 시스템 배포 전과 주요 변경 시 수행되는가?

4. §6.2 AI 목표

오픈소스 컴플라이언스와 연계한 측정 가능한 AI 목표를 수립한다.

오픈소스 관련 AI 목표 예시

- AI SBOM 최신화율: 분기별 100% 유지
- 오픈소스 취약점 패치 완료율: Critical CVE 발견 후 14일 이내 패치율 95% 이상
- AI 모델 라이선스 검토 완료율: 신규 모델 도입 시 100% 사전 검토
- 데이터셋 라이선스 기록율: AI SBOM 내 데이터셋 라이선스 100% 기록

5. 참고

4 - 3. 지원

ISO/IEC 42001 §7(지원) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 오픈소스 관리 역량 수립과 AI SBOM 문서화 방법을 안내한다.

1. 개요

ISO/IEC 42001 §7은 AI 관리 시스템을 운영하는 데 필요한 역량, 인식, 커뮤니케이션, 문서화를 다룬다. 오픈소스 담당자 관점에서는 **§7.2(역량)**과 **§7.5(문서화된 정보)**가 핵심 교차점이다.


2. §7.2 역량 — AI 오픈소스 관리 역량 ★

ISO/IEC 42001은 AI 관련 역할을 수행하는 인원이 필요한 역량을 갖추도록 요구한다. 오픈소스 컴플라이언스 관점에서 AI 개발·운영 인원에게 다음 역량이 포함되어야 한다.

AI 오픈소스 관리 역량 요소

역량 영역내용관련 교육
AI 프레임워크 라이선스 이해PyTorch·TensorFlow 등 주요 라이선스 조건 파악오픈소스 라이선스 교육
AI 모델 라이선스 검토커스텀 라이선스 조건(사용 제한, 파생물 처리) 분석법무팀 협업 교육
AI SBOM 작성SPDX 3.0 AI 프로파일 기반 AI SBOM 구성 방법AI SBOM 실습
오픈소스 취약점 관리AI 시스템 의존성 SCA 스캔 및 CVE 대응DevSecOps 교육
오픈 데이터 라이선스CC 계열 라이선스 조건 및 데이터셋 사용 규칙데이터 라이선스 교육

기존 오픈소스 역량 체계와의 통합

체크포인트:

  • AI 개발 인원이 AI 프레임워크·모델 라이선스 조건을 이해하고 있는가?
  • AI SBOM 작성 방법에 대한 교육이 제공되고 있는가?
  • 역량 평가 기록이 문서화되어 있는가?

3. §7.5 문서화된 정보 — AI SBOM ★

ISO/IEC 42001 §7.5는 AI 관리 시스템 운영에 필요한 문서화된 정보를 수립·유지하도록 요구한다. 오픈소스 관점에서 **AI SBOM(AI System Bill of Materials)**은 §7.5의 핵심 산출물이다.

AI SBOM이란?

AI SBOM은 소프트웨어 SBOM(ISO 5230의 §3.3.1)을 AI 시스템으로 확장한 개념으로, AI 시스템을 구성하는 모든 요소와 그 출처·라이선스를 문서화한 목록이다.

구분기존 소프트웨어 SBOMAI SBOM
포함 대상라이브러리, 패키지프레임워크 + 모델 + 데이터셋
라이선스SPDX 표준 라이선스SPDX + AI 커스텀 라이선스
표준 형식SPDX 2.x, CycloneDXSPDX 3.0 AI 프로파일
추가 메타데이터없음모델 파라미터 수, 학습 데이터 출처 등

AI SBOM 구성 요소

AI SBOM
  ├── 1. AI 프레임워크 · 라이브러리
  │       name, version, license, hash
  │
  ├── 2. 사전 훈련 모델 (Pre-trained Model)
  │       name, version, license, modelCard URL
  │       primaryPurpose (inference / training / fine-tuning)
  │
  ├── 3. 학습 데이터셋
  │       name, version, license, datasetType
  │       knownBias (편향 정보, 있는 경우)
  │
  └── 4. 파인튜닝 데이터 (해당 시)
          name, license, source

AI SBOM 작성 방법 상세: AI SBOM 가이드

SPDX 3.0 AI 프로파일 간략 예시

SPDXVersion: SPDX-3.0
DataLicense: CC0-1.0

# AI 프레임워크
- SPDXID: SPDXRef-pytorch
  name: pytorch
  versionInfo: "2.2.0"
  licenseConcluded: BSD-3-Clause
  primaryPurpose: library

# 사전 훈련 모델
- SPDXID: SPDXRef-llama3
  name: meta-llama/Llama-3.1-8B
  versionInfo: "3.1"
  licenseConcluded: LicenseRef-Llama-Community
  primaryPurpose: inference
  modelCard: "https://huggingface.co/meta-llama/Llama-3.1-8B"

# 학습 데이터셋 (파인튜닝 시)
- SPDXID: SPDXRef-dataset-alpaca
  name: tatsu-lab/alpaca
  licenseConcluded: CC-BY-4.0
  dataCollectionProcess: "Stanford Alpaca 52K instruction dataset"

체크포인트:

  • AI 시스템에 사용된 모든 프레임워크·모델·데이터셋이 AI SBOM에 기록되어 있는가?
  • AI SBOM이 AI 시스템 변경 시마다 최신 상태로 갱신되는가?
  • AI SBOM에 각 컴포넌트의 라이선스 정보가 포함되어 있는가?

4. §7.3 인식

AI 시스템 관련 역할을 수행하는 인원이 오픈소스 컴플라이언스의 중요성을 인식하도록 한다.

체크포인트:

  • AI 개발 인원이 AI 시스템 오픈소스 컴플라이언스 미준수 시의 리스크를 인지하고 있는가?

5. 참고

5 - 4. 운영

ISO/IEC 42001 §8(운영) 요구사항 중 오픈소스 관리와 교차하는 내용을 개괄한다. AI 시스템 생애주기에서의 오픈소스 컴플라이언스, AI SBOM, AI 공급망 검증을 다루는 세부 페이지로 안내한다.

개요

ISO/IEC 42001 §8은 AI 관리 시스템의 실제 운영 단계를 다룬다. 오픈소스 관점에서 §8은 가장 많은 교차점을 포함하는 섹션이다.

하위 조항내용오픈소스 교차
§8.1운영 기획 및 통제오픈소스 검토 프로세스 운영
§8.2~8.3AI 리스크 평가·처리 (운영 시)OSS 취약점 리스크 대응
§8.4AI 시스템 영향 평가 (운영 시)OSS 취약점의 시스템 영향
§8.5AI 시스템 생애주기★ OSS 프레임워크·모델 라이선스
§8.6AI 시스템을 위한 데이터★ 오픈 데이터셋 라이선스
§8.7피드백 인터페이스
§8.8외부 AI 시스템 조달★ 외부 OSS 모델 공급망 검증

세부 페이지

이 섹션의 오픈소스 교차 항목은 다음 세부 페이지에서 상세히 다룬다:

페이지대상 조항핵심 내용
AI 시스템의 오픈소스 관리§8.5, §8.6AI 프레임워크·모델·데이터셋 라이선스 컴플라이언스
AI SBOM§7.5, §8.5AI SBOM 구성, 생성 도구, SPDX 3.0 활용
AI 공급망 검증§8.8외부 오픈소스 AI 모델 조달 검증 체크리스트

§8.1 운영 기획 — 오픈소스 검토 프로세스 통합

AI 시스템 개발 프로세스에 오픈소스 컴플라이언스 검토 단계를 통합한다.

flowchart TD
    A[기획 단계] --> A1["OSS 프레임워크·모델 목록 작성\n라이선스 사전 검토"]
    A1 --> B[개발 단계]
    B --> B1["컴포넌트 추가 시 라이선스 확인\nAI SBOM 초안 작성\nSCA 스캔"]
    B1 --> C[테스트·검증 단계]
    C --> C1["AI SBOM 검토\n라이선스 의무 이행 확인\nCritical CVE 해결 확인"]
    C1 --> D[배포 단계]
    D --> D1["AI SBOM 최종본 보관\n라이선스 고지문 포함 확인"]

체크포인트:

  • AI 시스템 개발 프로세스에 오픈소스 컴플라이언스 검토 단계가 포함되어 있는가?
  • 오픈소스 검토 없이 AI 시스템이 배포되는 것을 방지하는 게이트가 있는가?

참고

5.1 - AI 시스템의 오픈소스 관리

ISO/IEC 42001 §8.5(AI 시스템 생애주기)와 §8.6(AI 데이터 관리)에 따라 AI 프레임워크, 사전 훈련 모델, 학습 데이터셋의 오픈소스 라이선스를 관리하는 방법을 설명한다.

1. 개요

ISO/IEC 42001 §8.5(AI 시스템 생애주기)와 §8.6(AI 데이터 관리)는 AI 시스템 개발 단계에서 관리해야 할 요구사항을 다룬다. 오픈소스 관점에서는 AI 시스템에 사용하는 오픈소스 컴포넌트의 라이선스 컴플라이언스가 핵심이다.


2. §8.5 AI 시스템 생애주기 — 오픈소스 프레임워크 · 모델 관리

2.1 기획·설계 단계

AI 시스템 기획 단계에서 사용할 오픈소스 프레임워크와 모델을 선정할 때 라이선스를 사전에 검토한다.

라이선스 사전 검토 절차:

1. 사용 후보 컴포넌트 목록 작성
   (프레임워크명, 버전, 출처 URL)

2. 라이선스 확인
   - 프레임워크: PyPI, npm, GitHub README 확인
   - AI 모델: Hugging Face Model Card, 공식 저장소 확인

3. 라이선스 조건 검토 항목
   □ 상업적 사용 허용 여부
   □ 파생물(Fine-tuning 모델) 공개 의무 여부
   □ 저작권 고지 의무 여부
   □ 특허 조항 여부 (Apache 2.0의 명시적 특허 허여 등)
   □ MAU 또는 매출 기반 사용 제한 여부

4. 허용 불가 라이선스 식별 시 대안 컴포넌트 탐색

2.2 개발 단계

개발 중 새로운 오픈소스 컴포넌트를 추가할 때마다 라이선스를 확인하고 AI SBOM에 즉시 반영한다.

SCA(소프트웨어 구성 분석) 도구 활용:

기존 오픈소스 스캔 도구를 AI 프로젝트 저장소에도 동일하게 적용한다.

# FOSSLight를 이용한 AI 프로젝트 스캔 예시
fosslight -p ./ai-project-dir -o ./ai-sbom-output

# cdxgen으로 Python AI 프로젝트 SBOM 생성
cdxgen -t python ./ai-project-dir -o ai-sbom.json

관련 도구 가이드:

2.3 주요 AI 프레임워크 라이선스 상세

프레임워크라이선스저작권 고지특허 허여상업 사용소스 공개
PyTorchBSD 3-Clause✅ 필요❌ 없음✅ 가능❌ 불필요
TensorFlowApache 2.0✅ 필요✅ 있음✅ 가능❌ 불필요
JAXApache 2.0✅ 필요✅ 있음✅ 가능❌ 불필요
Hugging Face TransformersApache 2.0✅ 필요✅ 있음✅ 가능❌ 불필요
LangChainMIT✅ 필요❌ 없음✅ 가능❌ 불필요
scikit-learnBSD 3-Clause✅ 필요❌ 없음✅ 가능❌ 불필요
ONNX RuntimeMIT✅ 필요❌ 없음✅ 가능❌ 불필요
vLLMApache 2.0✅ 필요✅ 있음✅ 가능❌ 불필요

2.4 주요 오픈소스 AI 모델 라이선스 비교

모델라이선스상업 사용파생 모델주요 제한 조건
Llama 3.1 (8B/70B)Meta Llama Community License✅ 조건부✅ 가능MAU 7억 초과 시 Meta 허가 필요
Llama 3.1 (405B)Meta Llama Community License✅ 조건부✅ 가능모델 가중치 재배포 제한
Mistral 7BApache 2.0✅ 가능✅ 가능제한 없음
Falcon 180BFalcon License✅ 조건부✅ 가능수익 창출 시 라이선스 필요
Gemma 2Gemma ToU✅ 조건부✅ 가능Google 사용 정책 준수
Phi-3MIT✅ 가능✅ 가능제한 없음
BERT, GPT-2Apache 2.0 / MIT✅ 가능✅ 가능제한 없음

체크포인트 — §8.5:

  • AI 시스템 개발에 사용된 모든 프레임워크의 라이선스가 검토되었는가?
  • 사용 중인 사전 훈련 모델의 라이선스 조건(상업적 사용, MAU 제한 등)이 확인되었는가?
  • 라이선스 의무(저작권 고지 등)가 배포 산출물에 포함되어 있는가?
  • SCA 스캔이 수행되어 보안 취약점이 식별되었는가?

3. §8.6 AI 데이터 관리 — 학습 데이터셋 라이선스 ★

AI 시스템 학습에 사용한 데이터셋에 오픈 데이터 라이선스가 적용된 경우 해당 라이선스 조건을 이행해야 한다.

3.1 주요 오픈 데이터 라이선스 의무

라이선스저작자 표시동일 조건상업 사용이행 방법
CC0 1.0❌ 불필요❌ 불필요✅ 가능별도 조치 불필요
CC-BY 4.0✅ 필요❌ 불필요✅ 가능모델 카드에 데이터 출처 기재
CC-BY-SA 4.0✅ 필요✅ 필요✅ 가능법무 검토 필요 (파생 모델 라이선스)
CC-BY-NC 4.0✅ 필요❌ 불필요❌ 불가비상업 연구 목적에만 사용
ODbL (OpenStreetMap 등)✅ 필요✅ 필요✅ 가능파생 데이터베이스 동일 조건 공개

3.2 모델 카드(Model Card) 작성

CC-BY 계열 데이터셋을 학습에 사용한 경우 모델 카드에 출처를 명시한다.

## Model Card — [모델명]

### Training Data

이 모델은 다음 데이터셋을 사용하여 학습되었습니다:

| 데이터셋 | 라이선스 | 출처 |
|---------|---------|------|
| Wikipedia (2024-01) | CC-BY-SA 4.0 | https://dumps.wikimedia.org/ |
| Common Crawl (CC-MAIN-2023) | 조건 없음 | https://commoncrawl.org/ |
| [내부 데이터셋] | 자체 소유 | 내부 |

체크포인트 — §8.6:

  • 학습 데이터셋 목록과 라이선스가 AI SBOM에 기록되어 있는가?
  • CC-BY 계열 데이터 사용 시 모델 카드 또는 공개 문서에 출처가 명시되어 있는가?
  • CC-BY-NC 데이터가 상업 서비스에 사용되고 있지 않은가?
  • CC-BY-SA 데이터를 학습에 사용한 경우 법무팀과 파생 모델 라이선스를 협의했는가?

4. 참고

5.2 - AI SBOM

ISO/IEC 42001 §7.5(문서화된 정보)와 §8.5(AI 시스템 생애주기)에 따른 AI SBOM(AI System Bill of Materials) 구성 방법과 생성 도구를 안내한다.

1. AI SBOM이란?

**AI SBOM(AI System Bill of Materials)**은 AI 시스템을 구성하는 모든 요소의 목록과 그 출처·라이선스를 문서화한 것이다. 소프트웨어 SBOM(ISO/IEC 5230 §3.3.1)의 개념을 AI 시스템으로 확장한 것으로, ISO/IEC 42001 §7.5(문서화된 정보) 요구사항의 핵심 산출물이다.

AI SBOM이 필요한 이유: 투명성과 규제 대응

AI SBOM은 AI 시스템의 투명성과 설명 가능성을 확보하는 핵심 수단이다. ISO/IEC 42001 Appendix C.2.11은 투명성과 설명 가능성을 AI 관리 시스템의 핵심 목표로 명시한다.

요구 주체근거AI SBOM 역할
ISO/IEC 42001Appendix C.2.11 (투명성·설명 가능성)AI 시스템 구성 투명성 확보
EU AI Act고위험 AI 시스템 기술 문서 요건학습 데이터·모델 출처 명시
EU Cyber Resilience Act(CRA)AI 제품의 투명성 의무컴포넌트 목록 및 취약점 추적
OpenChain AI Work GroupAI SBOM Compliance Guide공급망 내 AI SBOM 표준 절차

AI SBOM vs 소프트웨어 SBOM

비교 항목소프트웨어 SBOMAI SBOM
포함 대상라이브러리, 패키지, 실행 파일프레임워크 + 모델 + 데이터셋
라이선스 유형SPDX 표준 라이선스SPDX + AI 커스텀 라이선스 (Llama, Gemma ToU 등)
표준 형식SPDX 2.x, CycloneDX 1.4SPDX 3.0 AI 프로파일, CycloneDX 1.6
추가 정보없음모델 파라미터 수, 학습 데이터 출처, 모델 목적 등
관련 ISO 표준ISO/IEC 5230 §3.3.1ISO/IEC 42001 §7.5

2. AI SBOM 구성 요소

AI SBOM
  │
  ├── 1. AI 프레임워크 · 라이브러리
  │       (일반 소프트웨어 SBOM과 동일한 항목)
  │       - name, version, license, PURL, hash
  │
  ├── 2. 사전 훈련 모델 (Pre-trained Model)
  │       - name, version, license
  │       - primaryPurpose (inference / training / fine-tuning / evaluation)
  │       - modelCard URL (모델 카드 링크)
  │       - baseModel (파인튜닝 시 원본 모델)
  │
  ├── 3. 학습 데이터셋
  │       - name, version, license
  │       - dataCollectionProcess (수집 방법)
  │       - dataType (text / image / audio / etc.)
  │       - knownBias (알려진 편향, 있는 경우)
  │
  ├── 4. 파인튜닝 데이터 (해당 시)
  │       - name, license, source
  │       - dataType
  │
  └── 5. Fact Sheet (AI 시스템 카드) ★
          - 편향(bias) 정보 및 한계 사항
          - 데이터 출처 및 데이터 가용성
          - 모델 성능 및 평가 결과 요약
          - 의도된 사용 목적 및 금지 사용 목적
          - 안전성·보안 관련 알려진 이슈

3. SPDX 3.0 AI 프로파일 활용

SPDX 3.0은 AI 시스템을 위한 AI 프로파일을 새롭게 포함한다. OpenChain Korea Work Group의 AI Work Group이 이 형식을 기반으로 AI SBOM 가이드를 개발했다.

AI SBOM SPDX 3.0 예시

spdxVersion: SPDX-3.0
SPDXID: SPDXRef-DOCUMENT
name: "MyAI-Service AI SBOM"
dataLicense: CC0-1.0
created: "2026-04-01T00:00:00Z"
createdBy:
  - type: Tool
    identifier: "cdxgen-10.0"

packages:
  # 1. AI 프레임워크
  - SPDXID: SPDXRef-pytorch
    name: torch
    versionInfo: "2.2.0"
    supplier: "Organization: Meta AI"
    downloadLocation: "https://pypi.org/project/torch/2.2.0/"
    licenseConcluded: BSD-3-Clause
    primaryPurpose: library

  - SPDXID: SPDXRef-transformers
    name: transformers
    versionInfo: "4.40.0"
    supplier: "Organization: Hugging Face"
    downloadLocation: "https://pypi.org/project/transformers/4.40.0/"
    licenseConcluded: Apache-2.0
    primaryPurpose: library

  # 2. 사전 훈련 모델
  - SPDXID: SPDXRef-llama3-8b
    name: meta-llama/Llama-3.1-8B-Instruct
    versionInfo: "3.1"
    supplier: "Organization: Meta AI"
    downloadLocation: "https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct"
    licenseConcluded: LicenseRef-Meta-Llama-Community-License
    primaryPurpose: inference
    # AI 프로파일 확장 필드
    modelCard: "https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct"
    hyperparameter:
      contextWindow: 131072

  # 3. 파인튜닝 데이터셋
  - SPDXID: SPDXRef-dataset-alpaca-korean
    name: beomi/KoAlpaca-v1.1a
    versionInfo: "1.1a"
    downloadLocation: "https://huggingface.co/datasets/beomi/KoAlpaca-v1.1a"
    licenseConcluded: CC-BY-NC-4.0
    primaryPurpose: trainData
    dataCollectionProcess: "Korean instruction-following dataset"

relationships:
  - spdxElementId: SPDXRef-llama3-8b
    relationshipType: TRAINED_ON
    relatedSpdxElement: SPDXRef-dataset-alpaca-korean

4. AI SBOM 생성 도구

4.1 cdxgen (CycloneDX 형식)

cdxgen은 Python AI 프로젝트의 의존성을 분석하여 CycloneDX 형식의 SBOM을 생성한다. AI 특화 필드는 별도로 추가해야 한다.

# Python AI 프로젝트 SBOM 생성
cdxgen -t python ./my-ai-project -o ai-sbom.json

# requirements.txt 기반 생성
cdxgen -t pypi -r requirements.txt -o ai-sbom.json

도구 가이드: cdxgen 사용 가이드

4.2 Syft (컨테이너 이미지 분석)

AI 서비스를 컨테이너로 배포하는 경우 Syft로 컨테이너 이미지 전체의 SBOM을 생성한다.

# AI 서비스 컨테이너 이미지 SBOM 생성
syft my-ai-service:latest -o spdx-json=ai-container-sbom.json

도구 가이드: Syft 사용 가이드

4.3 Dependency-Track (AI SBOM 관리 및 취약점 추적)

생성된 AI SBOM을 Dependency-Track에 업로드하면 지속적으로 취약점을 모니터링할 수 있다.

# Dependency-Track에 AI SBOM 업로드
curl -X "POST" "http://dtrack:8080/api/v1/bom" \
  -H "X-Api-Key: ${DTRACK_API_KEY}" \
  -F "bom=@ai-sbom.json" \
  -F "projectName=MyAI-Service" \
  -F "projectVersion=1.0.0"

도구 가이드: Dependency-Track 사용 가이드


5. AI SBOM 운영 절차

AI SBOM 수명주기 관리

AI 시스템 개발 착수
  └─ AI SBOM 초안 작성 (프레임워크·모델 확정 시)
       └─ 개발 중 컴포넌트 추가 시 즉시 갱신
            └─ 배포 전 AI SBOM 최종 검토
                 └─ 배포 시 AI SBOM 보관 (버전별)
                      └─ 운영 중 신규 취약점 발견 시 AI SBOM 연계 대응
                           └─ 모델 라이선스 변경 모니터링 → 필요시 AI SBOM 갱신

체크포인트:

  • 모든 배포 버전의 AI SBOM이 생성·보관되어 있는가?
  • AI SBOM에 프레임워크·모델·데이터셋이 모두 포함되어 있는가?
  • 각 컴포넌트의 라이선스가 정확하게 기록되어 있는가?
  • AI SBOM을 기반으로 취약점 모니터링이 수행되고 있는가?

6. AI Work Group 가이드 연계

OpenChain Korea Work Group의 AI Work Group은 AI SBOM Compliance Guide를 개발·발표했다. 이 가이드는 SPDX 3.0 AI 프로파일을 활용한 AI SBOM 작성 방법을 상세히 안내한다.


7. 참고

5.3 - AI 공급망 검증

ISO/IEC 42001 §8.8(외부 당사자가 공급하는 AI 시스템 사용)에 따라 외부에서 조달하는 오픈소스 AI 모델과 AI 서비스의 공급망 검증 방법을 안내한다.

1. 개요

ISO/IEC 42001 §8.8은 외부에서 조달하는 AI 시스템(모델, API, 서비스)을 사용할 때 적절한 평가와 검증을 수행할 것을 요구한다. 오픈소스 관점에서는 외부 오픈소스 AI 모델을 조달할 때 라이선스·보안·공급망 리스크를 검증하는 절차가 핵심이다.


2. 외부 AI 조달의 세 가지 유형

유형예시오픈소스 관련성
오픈소스 AI 모델 직접 사용Llama, Mistral, Falcon 모델 가중치 다운로드높음 — 라이선스 직접 적용
오픈소스 기반 AI 서비스Hugging Face Inference API, Ollama중간 — 기반 모델 라이선스 확인 필요
상용 AI APIOpenAI API, Google Vertex AI낮음 — 서비스 약관 적용 (OSS 라이선스 직접 적용 안 됨)

이 가이드는 **유형 1(오픈소스 AI 모델 직접 사용)**과 **유형 2(오픈소스 기반 AI 서비스)**를 중심으로 다룬다.


3. 오픈소스 AI 모델 조달 전 검증 체크리스트

외부 오픈소스 AI 모델을 도입하기 전 다음 항목을 검증한다.

3.1 라이선스 검증

## 오픈소스 AI 모델 라이선스 검증 체크리스트

### 기본 라이선스 정보
- [ ] 라이선스 유형 확인: ___________________
      (Apache 2.0 / MIT / Llama Community / Gemma ToU / 기타)
- [ ] 라이선스 원문 출처 URL: ___________________
- [ ] 라이선스 버전 확인 (동일 모델의 이전 버전과 다를 수 있음)

### 상업적 사용 조건
- [ ] 상업적 사용 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 사용자 수(MAU) 제한 조건: ___________________
      (예: Llama 3 — MAU 7억 초과 시 Meta 허가 필요)
- [ ] 매출 기반 제한 조건: ___________________

### 파생물(Fine-tuning) 조건
- [ ] 파인튜닝 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 파인튜닝 모델 공개 의무 여부: ___________________
- [ ] 파인튜닝 모델 라이선스 요건: ___________________

### 재배포 조건
- [ ] 모델 가중치 재배포 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 재배포 시 라이선스 문서 포함 의무: ___________________

### 표시(Attribution) 의무
- [ ] 저작자 표시 필요 여부: ✅ 필요 / ❌ 불필요
- [ ] 표시 방법 및 위치: ___________________
      (서비스 UI, 문서, API 응답 등)

### 법무 검토 필요 여부
- [ ] 표준 SPDX 라이선스가 아닌 경우 법무팀 검토 완료: ✅ / 해당 없음
- [ ] 법무팀 검토 일자: ___________________
- [ ] 검토 의견: ___________________

3.2 보안 검증

### 보안 검증 항목
- [ ] 공식 배포 채널에서 다운로드 확인
      (공식 GitHub, Hugging Face 공식 계정)
- [ ] 파일 해시(SHA256) 검증 완료
- [ ] 알려진 취약점(CVE) 조회 완료
      (NVD, OSV.dev 검색 결과: ___________________)
- [ ] 모델 가중치의 악성 코드 삽입 여부 검토
      (신뢰할 수 없는 출처의 모델은 사용 금지)
- [ ] 라이선스 변경 모니터링 채널 등록
      (GitHub Watch, 공식 뉴스레터 등)

3.3 공급망 리스크 평가

### 공급망 리스크 평가 항목
- [ ] 모델 공급자의 신뢰도 확인
      (개인 / 연구기관 / 기업 — 오픈소스 커뮤니티 평판)
- [ ] 모델 유지보수 활성도 확인
      (마지막 업데이트 일자, 이슈 대응 현황)
- [ ] 라이선스 변경 이력 확인
      (과거 라이선스 조건 변경 사례 여부)
- [ ] 대안 모델 식별
      (라이선스 변경 또는 서비스 중단 시 대안)

4. 주요 오픈소스 AI 모델 라이선스 리스크 요약

모델 계열라이선스주요 리스크
Llama 3.xMeta Llama Community LicenseMAU 7억 초과 시 Meta 승인 필요, 라이선스 버전별 조건 차이
Llama 2Meta Llama 2 Community License경쟁사(Meta 기준) 사용 제한, 파생 모델 “Llama 2” 명칭 사용 제한
Gemma 2Google Gemma ToUGoogle 사용 정책 위반 시 라이선스 즉시 종료
FalconFalcon License특정 규모 이상 수익 창출 시 라이선스 필요 (조건 확인 필수)
Mistral 7BApache 2.0리스크 낮음
Phi-3MIT리스크 낮음
GPT-2, BERTMIT / Apache 2.0리스크 낮음

5. 외부 AI 모델 조달 프로세스

flowchart TD
    A[도입 필요 모델 식별] --> B[후보 모델 목록 작성]
    B --> C[라이선스 검증]
    C --> D{커스텀 라이선스?}
    D -- Yes --> E[법무팀 검토]
    D -- No --> F[보안 검증]
    E --> F
    F --> G[공급망 리스크 평가]
    G --> H[도입 승인]
    H --> I[AI SBOM 등록]
    I --> J[라이선스 모니터링 등록]

체크포인트:

  • 외부 오픈소스 AI 모델 도입 전 라이선스 검증 절차가 수행되었는가?
  • 커스텀 라이선스 모델의 경우 법무팀 검토가 완료되었는가?
  • 도입된 외부 모델이 AI SBOM에 등록되어 있는가?
  • 외부 모델 라이선스 변경을 모니터링하는 채널이 있는가?
  • 라이선스 조건 위반 시 대응할 대안 모델이 식별되어 있는가?

6. 참고

6 - 5. 성과 평가와 개선

ISO/IEC 42001 §9(성과 평가)와 §10(개선) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. 오픈소스 컴플라이언스 지표를 AI 관리 시스템의 성과 지표와 통합하는 방법을 안내한다.

1. 개요

ISO/IEC 42001 §9와 §10은 AI 관리 시스템이 의도한 결과를 달성하고 있는지 확인하고, 부족한 점을 개선하는 사이클을 다룬다. 오픈소스 관점에서는 **§9.1(모니터링·측정)**이 오픈소스 컴플라이언스 지표와 연계된다.


2. §9.1 모니터링 및 측정 — 오픈소스 컴플라이언스 지표 ★

ISO/IEC 42001은 AI 관리 시스템의 성과를 모니터링하고 측정할 것을 요구한다. 기존 오픈소스 컴플라이언스 지표를 AI 관리 시스템의 성과 지표에 통합한다.

오픈소스 관련 AI 성과 지표 예시

지표측정 방법목표측정 주기
AI SBOM 최신화율AI 배포 대비 AI SBOM 갱신 완료율100%배포 시마다
모델 라이선스 검토율신규 도입 모델 대비 라이선스 검토 완료율100%분기별
Critical CVE 패치율Critical CVE 발견 후 14일 이내 패치 완료율95% 이상월별
데이터셋 라이선스 기록율AI SBOM 내 데이터셋 라이선스 기록 완료율100%분기별
OSS 라이선스 위반 건수라이선스 위반 발견 건수 및 해결 소요 시간0건 목표월별
AI 공급망 검증율외부 모델 조달 시 공급망 검증 완료율100%조달 시마다

체크포인트:

  • AI 시스템 오픈소스 컴플라이언스 관련 성과 지표가 정의되어 있는가?
  • 지표가 정해진 주기에 측정·기록되고 있는가?
  • 목표 미달 시 개선 조치가 수립되는가?

3. §9.2 내부 감사

AI 관리 시스템이 ISO 42001 요구사항을 충족하는지 정기적으로 내부 감사를 수행한다. 오픈소스 컴플라이언스 항목을 내부 감사 체크리스트에 포함한다.

AI 오픈소스 내부 감사 체크리스트

## AI 시스템 오픈소스 컴플라이언스 내부 감사 체크리스트
### 감사 대상: [AI 시스템명]  / 감사 일자: YYYY-MM-DD

#### AI SBOM
- [ ] AI SBOM이 최신 배포 버전을 반영하고 있는가?
- [ ] 모든 프레임워크·모델·데이터셋이 AI SBOM에 포함되어 있는가?
- [ ] 각 컴포넌트의 라이선스 정보가 정확하게 기록되어 있는가?

#### 라이선스 컴플라이언스
- [ ] 모든 오픈소스 AI 컴포넌트의 라이선스 조건이 검토되었는가?
- [ ] 라이선스 의무(저작권 고지, 변경 고지 등)가 이행되었는가?
- [ ] 상업적 사용 제한이 있는 모델을 상업 서비스에 사용하고 있지 않은가?

#### 보안 취약점 관리
- [ ] 최근 분기 내 SCA 스캔이 수행되었는가?
- [ ] 식별된 Critical/High CVE가 적시에 패치되었는가?
- [ ] 취약점 처리 이력이 기록되어 있는가?

#### AI 공급망
- [ ] 외부 조달 AI 모델의 라이선스 검증이 완료되었는가?
- [ ] 외부 모델의 라이선스 변경 사항이 모니터링되고 있는가?

4. §9.3 경영 검토

최고경영진의 AI 관리 시스템 경영 검토 시, 오픈소스 컴플라이언스 현황을 보고 항목에 포함한다.

경영 검토 보고 항목 예시:

  • AI SBOM 관리 현황 (최신화율, 커버리지)
  • 오픈소스 라이선스 위반 발생 현황 및 조치
  • AI 시스템 보안 취약점 현황 및 패치율
  • AI 공급망 오픈소스 리스크 현황

5. §10.1 부적합 및 시정 조치

오픈소스 컴플라이언스 위반이 발견된 경우 다음 절차를 따른다:

  1. 즉각 조치: 위반 사항 격리 또는 임시 조치 (예: 해당 기능 서비스 중단)
  2. 원인 분석: 왜 위반이 발생했는지 근본 원인 파악
  3. 시정 조치: 위반 해결 (라이선스 준수, 컴포넌트 교체 등)
  4. 재발 방지: 프로세스 개선 (검토 절차 강화, 교육 등)
  5. 기록 보존: 위반 내용, 조치, 결과를 문서화

6. §10.2 지속적 개선

AI 시스템 오픈소스 관리 체계를 지속적으로 개선하기 위한 방향:

  • 새로운 AI 모델 라이선스 유형에 대한 검토 기준 업데이트
  • AI SBOM 생성 자동화 도구 도입 (cdxgen, Syft 등 활용)
  • AI Work Group의 최신 가이드 반영

7. 참고