ISO/IEC 42001 가이드
오픈소스 관점에서 ISO/IEC 42001 AI 관리 시스템 표준을 풀어 설명하는 가이드다. AI 시스템 개발·운영에서 오픈소스 컴플라이언스와 교차하는 핵심 요구사항을 다룬다.
이 가이드는 오픈소스 담당자 관점에서 ISO/IEC 42001(AI Management System)의 요구사항 중
오픈소스 관리와 교차하는 핵심 항목을 풀어서 설명한다. AI 시스템에서 오픈소스 프레임워크,
사전 훈련 모델, 학습 데이터셋을 사용할 때 무엇을 준수해야 하는지, AI SBOM은 어떻게 구성하는지
실무 중심으로 안내한다.
Author : OpenChain Korea Work Group / CC BY 4.0
ISO/IEC 42001이란?
ISO/IEC 42001:2023은 조직이 AI 시스템을 책임감 있고 투명하게 개발·운영·관리하기 위한
AI 관리 시스템(AIMS, AI Management System) 국제 표준이다.
| 항목 | 내용 |
|---|
| 정식 명칭 | ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system |
| 제정 기관 | ISO/IEC JTC 1/SC 42 (인공지능) |
| 제정 연도 | 2023 |
| 표준 계열 | ISO 경영 시스템 표준 (ISO 9001, ISO 27001과 동일 구조) |
| 적용 대상 | AI 제품·서비스를 개발, 제공, 사용하는 모든 조직 |
ISO/IEC 5230 · 18974와의 차이
ISO/IEC 5230(라이선스 컴플라이언스)과 ISO/IEC 18974(보안 보증)는 OpenChain 프로젝트가
먼저 스펙을 만들고 ISO가 표준으로 채택한 것으로, 오픈소스 소프트웨어 관리에 특화되어 있다.
OpenChain이 무료 자가 인증 체크리스트를 제공한다.
ISO/IEC 42001은 ISO/IEC JTC 1 SC 42가 독자적으로 제정한 AI 관리 시스템 표준으로,
OpenChain과 무관하다. 오픈소스에 특화된 표준이 아니라 AI 거버넌스 전반을 다루며,
공식 자가 인증 체크리스트가 별도로 제공되지 않는다.
세 표준의 상세 비교는 표준 비교 페이지를 참고한다.
이 가이드의 포지셔닝
오픈소스 관점의 ISO 42001 가이드
ISO/IEC 42001은 AI 관리 시스템 전반(리스크, 거버넌스, 생애주기, 인적 감독 등)을 다루는
광범위한 표준이다. 이 가이드는 그 중에서 오픈소스 관리와 교차하는 요구사항에 집중한다.
| 이 가이드가 다루는 것 | 이 가이드가 다루지 않는 것 |
|---|
| AI 시스템의 오픈소스 라이선스 컴플라이언스 | AI 윤리 거버넌스 전반 |
| AI 프레임워크·모델·데이터셋 오픈소스 관리 | AI 편향성·공정성 평가 |
| AI SBOM 구성 및 유지 | 인간 감독·설명가능성 요구사항 |
| 오픈소스 AI 모델 공급망 검증 | AI 시스템 성능 최적화 |
AI 컴플라이언스 전반에 대한 내용은 기업 오픈소스 관리 가이드 — AI 컴플라이언스를 참고한다.
ISO/IEC 42001 준수 확인 방법
ISO 42001은 OpenChain처럼 공식 자가 인증 체크리스트를 제공하지 않는다.
조직은 다음 세 가지 방법으로 준수 여부를 확인하거나 선언할 수 있다.
방법 1. 자체 갭 분석 (Self-assessment)
조직이 내부적으로 ISO 42001의 각 조항(“shall” 요구사항)을 검토하여 현재 수준을 평가하고
개선 계획을 수립한다. 비용이 없으며 이 가이드의 체크포인트를 활용할 수 있다.
방법 2. 제2자 심사 (Second-party assessment)
고객사 또는 파트너사가 직접 조직의 AI 관리 시스템을 평가한다.
공급망 신뢰 구축 목적에 활용된다.
방법 3. 제3자 인증 (Third-party certification)
BSI, TÜV SÜD 등 ISO 인증기관이 심사하여 공식 ISO 42001 인증서를 발급한다.
ISO 27001 인증과 동일한 방식으로 운영된다.
가이드 구성
이 가이드는 ISO/IEC 42001의 §4–§10 구조를 따르되, 오픈소스 교차점이 있는 섹션을 중심으로 구성한다.
AI Work Group과의 연계
OpenChain Korea Work Group의 AI Work Group은 AI SBOM 컴플라이언스 가이드를 개발하고 있다.
이 가이드의 AI SBOM 섹션은 AI Work Group의 산출물과 연계된다.
1 - ISO 5230 · 18974 · 42001 비교
ISO/IEC 5230(라이선스 컴플라이언스), ISO/IEC 18974(보안 보증), ISO/IEC 42001(AI 관리 시스템) 세 표준의 목적, 구조, 오픈소스 관련성을 비교한다.
1. 세 표준의 관계
오픈소스를 사용하는 AI 시스템을 개발하는 기업은 세 가지 표준이 교차하는 지점에 있다.
flowchart LR
subgraph oss["오픈소스 관리"]
A["ISO/IEC 5230\n라이선스 컴플라이언스\n(라이선스·SBOM·산출물)"]
B["ISO/IEC 18974\n보안 보증\n(취약점 탐지·대응·CVD)"]
end
subgraph ai["AI 시스템 관리"]
C["ISO/IEC 42001\nAI 관리 시스템\n(거버넌스·리스크·생애주기)"]
end
oss -- "AI 시스템 내\n오픈소스 컴플라이언스" --> aiISO 5230과 18974는 오픈소스 자체를 관리하는 표준이고,
ISO 42001은 AI 시스템을 관리하는 표준이다. 두 영역은 독립적이지만,
AI 시스템이 오픈소스를 활용할 때 교차점이 발생한다.
ISO/IEC 42003 — AI 시스템 구현 가이드 (개발 중)
ISO/IEC 42001이 원칙적 요구사항을 제시하는 반면,
ISO/IEC 42003은 42001의 구체적 구현 방법을 안내하는 가이드(새롭게 승인된 work item)다.
OpenChain AI Work Group은 AI SBOM을 ISO 42003의 투명성·설명 가능성 조항
(Appendix C.2.11 — Transparency and Explainability)에 반영하는 것을 추진 중이다.
AI SBOM 의무화 관련 최신 동향은 AI Work Group 활동을 참고한다.
2. 표준 기본 정보 비교
| 비교 항목 | ISO/IEC 5230 | ISO/IEC 18974 | ISO/IEC 42001 | ISO/IEC 42003 |
|---|
| 상태 | 발행 (2020) | 발행 (2023) | 발행 (2023) | 개발 중 |
| 제정 기관 | OpenChain Project → ISO | OpenChain Project → ISO | ISO JTC 1/SC 42 | ISO JTC 1/SC 42 |
| 관리 주체 | Linux Foundation OpenChain | Linux Foundation OpenChain | ISO | ISO |
| 표준 계열 | OpenChain 특화 표준 | OpenChain 특화 표준 | ISO 경영 시스템 표준 | ISO 42001 구현 가이드 |
| 대상 | 소프트웨어 공급망의 오픈소스 | 오픈소스 보안 취약점 | AI 시스템 전체 | ISO 42001 구현 방법 |
| 핵심 관리 대상 | 라이선스 의무 이행 | CVE 탐지·대응 | AI 거버넌스·생애주기 | AI SBOM·투명성 포함 |
3. 요구사항 형태 비교
세 표준은 요구사항을 표현하는 방식이 근본적으로 다르다.
ISO/IEC 5230 · 18974 방식: 입증자료 번호 체계
각 조항마다 기업이 제출해야 할 **입증자료(Verification Material)**를 번호로 명시한다.
§3.1.1 정책
입증자료:
- 3.1.1.1 문서화된 오픈소스 정책
- 3.1.1.2 정책 전파 절차
입증자료가 있으면 ✅ 충족, 없으면 ❌ 미충족으로 명확하게 판단할 수 있다.
ISO/IEC 42001 방식: 경영 시스템 shall 요구사항
조항마다 “조직은 ~해야 한다(shall)“는 형태의 원칙적 요구사항을 제시하며,
어떤 문서나 기록으로 충족할지는 조직이 맥락에 맞게 결정한다.
§5.2 AI 정책
"최고경영진은 AI 정책을 수립해야 한다(shall).
AI 정책은 조직의 목적에 적합해야 하며..."
이 때문에 ISO 42001은 ISO 5230/18974처럼 단순 체크리스트로 자가 인증을 하기 어렵고,
내부 갭 분석 또는 외부 인증기관의 심사가 필요하다.
4. 자가 인증 방법 비교
| 비교 항목 | ISO/IEC 5230 | ISO/IEC 18974 | ISO/IEC 42001 |
|---|
| 공식 자가 인증 도구 | OpenChain 온라인 체크리스트 | OpenChain 온라인 체크리스트 | 없음 |
| 자가 인증 비용 | 무료 | 무료 | 무료 (단, 내부 공수 필요) |
| 자가 인증 근거 | 체크리스트 완료 선언 | 체크리스트 완료 선언 | 내부 갭 분석 후 자체 선언 |
| 독립 평가 | OpenChain 파트너사 | OpenChain 파트너사 | 컨설팅 기관 |
| 제3자 인증 | OpenChain 공인 기관 | OpenChain 공인 기관 | BSI, TÜV SÜD 등 ISO 인증기관 |
| 인증 갱신 | 18개월 | 18개월 | ISO 인증기관 계약에 따름 |
5. 오픈소스 관련성 비교
| ISO 42001 조항 | 오픈소스 교차 내용 | 대응 ISO 5230 | 대응 ISO 18974 |
|---|
| §5.2 AI 정책 | OSS 사용 원칙 AI 정책 포함 | §3.1.1 정책 | §4.1.1 정책 |
| §6.1.2 AI 리스크 평가 | OSS 라이선스·취약점 리스크 | — | §4.3.2 보안 보증 |
| §6.1.4 AI 영향 평가 | OSS 컴포넌트 영향 분석 | — | §4.1.5 표준 관행 |
| §7.2 역량 | OSS 컴플라이언스 역량 | §3.1.2 역량 | §4.1.2 역량 |
| §7.5 문서화 | AI SBOM | §3.3.1 SBOM | §4.3.1 SBOM |
| §8.5 AI 생애주기 | OSS 프레임워크 라이선스 | §3.3 콘텐츠 검토 | §4.3 콘텐츠 검토 |
| §8.6 AI 데이터 | 오픈 데이터셋 라이선스 | §3.3.2 라이선스 | — |
| §8.8 외부 AI 조달 | OSS 모델 공급망 검증 | §3.3 콘텐츠 검토 | §4.3.2 보안 보증 |
| §9.1 성과 평가 | OSS 컴플라이언스 지표 | §3.6 준수 | §4.4 준수 |
6. 어떤 표준부터 시작해야 하는가?
오픈소스 컴플라이언스 체계가 없다면
→ ISO/IEC 5230 부터 시작한다.
라이선스 관리, SBOM, 정책, 교육의 기반을 구축한다.
ISO 5230 체계가 있고, AI 개발도 하고 있다면
→ ISO/IEC 18974 + ISO/IEC 42001 을 병행 검토한다.
- ISO 18974: AI 시스템에 사용된 오픈소스 취약점 관리 강화
- ISO 42001: AI 시스템 전체 거버넌스 수립 (오픈소스 교차 요건 포함)
두 표준은 상호 보완적이므로 동시에 추진하면 중복 작업을 줄일 수 있다.
AI 시스템을 개발·서비스하는 기업이라면
→ ISO/IEC 42001 의 오픈소스 교차 요구사항을 먼저 점검한다.
이 가이드의 운영 섹션이 AI 시스템에서 당장 확인해야 할 항목을 안내한다.
AI SBOM 의무화 동향을 따라가고 싶다면
→ ISO/IEC 42003 동향을 주시한다.
OpenChain AI Work Group은 AI SBOM 컴플라이언스 가이드를 ISO 42003에 반영하는 것을 추진 중이다.
EU Cyber Resilience Act(CRA)도 AI 시스템의 투명성 수단으로 AI SBOM을 요구하는 방향으로 논의되고 있다.
7. 세 표준 동시 운영 시 공통 기반
세 표준을 동시에 준수할 때 하나의 기반으로 활용 가능한 공통 요소:
| 공통 기반 요소 | ISO 5230 | ISO 18974 | ISO 42001 |
|---|
| 오픈소스 정책 | ✅ §3.1.1 | ✅ §4.1.1 | ✅ §5.2 (AI 정책에 포함) |
| 역할·책임 문서 | ✅ §3.1.2 | ✅ §4.1.2 | ✅ §5.3 |
| 역량·교육 기록 | ✅ §3.1.2 | ✅ §4.1.2 | ✅ §7.2 |
| SBOM / AI SBOM | ✅ §3.3.1 | ✅ §4.3.1 | ✅ §7.5 |
| 리스크 평가 | — | ✅ §4.3.2 | ✅ §6.1.2 |
| 외부 문의 대응 | ✅ §3.2.1 | ✅ §4.2.1 | ✅ §8.7 (피드백 채널) |
| 준수 확인·갱신 | ✅ §3.6 | ✅ §4.4 | ✅ §9·§10 |
2 - 1. 조직 맥락과 리더십
ISO/IEC 42001 §4(조직 맥락)와 §5(리더십) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 정책에 오픈소스 사용 원칙을 포함하는 방법을 안내한다.
1. 개요
ISO/IEC 42001 §4와 §5는 AI 관리 시스템의 기반이다. 조직이 어떤 AI 시스템을 운영하는지,
이해관계자가 누구인지, 최고경영진이 어떤 원칙으로 AI를 관리할지를 결정한다.
오픈소스 담당자 관점에서 §5.2(AI 정책)가 가장 중요한 교차점이다.
AI 정책에 오픈소스 사용에 관한 원칙을 포함하면 ISO 5230 정책과 통합 운영이 가능하다.
2. §4 조직 맥락 — 오픈소스 관련 고려사항
§4.1 조직과 조직 맥락 이해
AI 관리 시스템의 목적에 영향을 미치는 내·외부 이슈를 파악할 때,
오픈소스 관련 외부 이슈를 포함한다:
- 오픈소스 AI 모델의 라이선스 정책 변화 (예: Llama 라이선스 조건 변경)
- 국내외 AI 관련 규제 및 오픈소스 의무 공개 요구
- AI 공급망에서의 오픈소스 컴포넌트 보안 취약점 리스크
§4.3 AI 관리 시스템 범위 결정
AI 관리 시스템의 범위를 정의할 때, 오픈소스를 활용하는 AI 시스템과 프로세스를
명시적으로 포함한다.
체크포인트:
3. §5.2 AI 정책 — 오픈소스 원칙 포함 ★
ISO/IEC 42001은 조직이 AI 정책을 수립할 것을 요구한다.
오픈소스 컴플라이언스 관점에서 AI 정책에 다음 내용을 포함하면
ISO 5230 정책과 일관성을 유지할 수 있다.
AI 정책에 추가할 오픈소스 관련 원칙
## AI 시스템에서의 오픈소스 사용 원칙
본 조직은 AI 시스템 개발 및 운영에 오픈소스를 사용할 때 다음 원칙을 준수한다.
1. **라이선스 컴플라이언스**
AI 시스템에 사용하는 모든 오픈소스 프레임워크, 사전 훈련 모델, 학습 데이터셋의
라이선스 조건을 검토하고 이행한다.
2. **AI SBOM 관리**
AI 시스템을 구성하는 오픈소스 컴포넌트(프레임워크, 모델, 데이터셋)를
AI SBOM으로 문서화하고 최신 상태로 유지한다.
3. **보안 취약점 관리**
AI 시스템에 사용된 오픈소스 컴포넌트의 보안 취약점을 주기적으로 점검하고
식별된 취약점에 신속히 대응한다.
4. **공급망 검증**
외부에서 조달하는 오픈소스 AI 모델 및 AI 서비스의 구성 요소와 라이선스를 확인한다.
기존 오픈소스 정책과의 통합
ISO/IEC 5230 정책과 통합 방법
기업이 이미 ISO/IEC 5230 기반의 오픈소스 정책을 운영 중이라면,
AI 정책의 오픈소스 원칙을 별도로 작성하지 않고 기존 오픈소스 정책에 AI 섹션을 추가하는
방식으로 통합 운영할 수 있다.
체크포인트:
4. §5.3 역할, 책임, 권한
AI 관리 시스템에서 오픈소스 관련 역할과 책임을 명확히 한다.
| 역할 | ISO 42001 책임 | 오픈소스 관련 추가 책임 |
|---|
| AI 거버넌스 책임자 | AI 정책 수립·감독 | AI 정책에 OSS 원칙 포함 보장 |
| AI 개발 리드 | AI 시스템 생애주기 관리 | AI SBOM 생성·유지 |
| 오픈소스 프로그램 매니저(OSPM) | — | AI 시스템 OSS 컴플라이언스 전반 |
| 보안 담당자 | AI 리스크 관리 | AI OSS 취약점 모니터링 |
권장
오픈소스 프로그램 매니저(OSPM)가 AI 거버넌스 위원회 또는 AI 검토 프로세스에
참여하도록 역할을 공식화하면 두 영역의 컴플라이언스를 효율적으로 통합할 수 있다.
5. 참고
3 - 2. 기획
ISO/IEC 42001 §6(기획) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 리스크 평가와 AI 시스템 영향 평가에 오픈소스 라이선스·취약점 리스크를 포함하는 방법을 안내한다.
1. 개요
ISO/IEC 42001 §6은 AI 시스템과 관련된 리스크와 기회를 체계적으로 파악하고 대응하는 방법을 요구한다.
특히 **§6.1.2(AI 리스크 평가)**와 **§6.1.4(AI 시스템 영향 평가)**는
오픈소스 컴포넌트로 인해 발생할 수 있는 리스크를 포함하는 데 직접 활용된다.
2. §6.1.2 AI 리스크 평가 — 오픈소스 리스크 포함 ★
ISO/IEC 42001은 AI 시스템과 관련된 리스크를 식별·분석·평가하는 프로세스를 요구한다.
오픈소스 담당자는 이 프로세스에 오픈소스 라이선스 리스크와 보안 취약점 리스크를
명시적으로 포함해야 한다.
오픈소스 관련 AI 리스크 유형
| 리스크 유형 | 원인 | 영향 | 대응 방법 |
|---|
| 라이선스 비준수 | AI 모델의 커스텀 라이선스 조건 미확인 | 법적 분쟁, 서비스 중단 | 사용 전 라이선스 검토 의무화 |
| GPL 오염 | Copyleft 라이선스 AI 컴포넌트와 독점 코드 결합 | 소스 코드 공개 의무 발생 | 라이선스 호환성 사전 검토 |
| 모델 라이선스 조건 위반 | MAU 제한, 용도 제한 조건 미충족 | 라이선스 취소, 손해배상 | 조건별 준수 여부 정기 점검 |
| 오픈소스 취약점 | AI 프레임워크 또는 의존성의 CVE | 시스템 침해, 데이터 유출 | 정기 SCA 스캔, 패치 적용 |
| 데이터셋 라이선스 위반 | CC-BY-NC 데이터를 상업 서비스에 사용 | 저작권 침해 | 데이터셋 라이선스 재검토 |
| 공급망 리스크 | 외부 오픈소스 모델의 라이선스 변경 | 서비스 연속성 위협 | 공급망 모니터링 체계 구축 |
AI 리스크 평가서에 포함할 오픈소스 항목
## AI 리스크 평가서 — 오픈소스 리스크 섹션
### 평가 대상 AI 시스템: [시스템명]
### 평가 일자: YYYY-MM-DD
| # | 리스크 항목 | 현재 사용 컴포넌트 | 가능성 | 영향도 | 리스크 수준 | 대응 조치 |
|---|------------|-----------------|:----:|:----:|:---------:|---------|
| 1 | 라이선스 비준수 | [모델명 · 라이선스] | 중 | 상 | 높음 | 법무 검토 |
| 2 | OSS 취약점 | [프레임워크명 · 버전] | 중 | 상 | 높음 | SCA 스캔 |
| 3 | 데이터셋 라이선스 | [데이터셋명 · 라이선스] | 저 | 중 | 중간 | 라이선스 재확인 |
ISO/IEC 18974와의 연계
AI 시스템에 사용된 오픈소스 취약점 리스크는 ISO/IEC 18974의 §4.3.2(보안 보증) 요구사항과
직접 연결된다. 18974의 취약점 탐지·평가 프로세스를 AI 시스템에도 적용하면 별도의
리스크 평가 체계를 구축하지 않아도 된다.
관련 가이드: ISO/IEC 18974 — §4.3.2 보안 보증
체크포인트:
3. §6.1.4 AI 시스템 영향 평가 — 오픈소스 컴포넌트 영향 포함 ★
AI 시스템이 개인, 그룹, 사회에 미칠 수 있는 영향을 평가할 때,
오픈소스 컴포넌트로 인한 영향도 포함한다.
오픈소스 관련 영향 평가 항목
| 평가 항목 | 고려 사항 |
|---|
| 보안 취약점으로 인한 영향 | 오픈소스 AI 컴포넌트의 알려진 취약점이 AI 시스템 사용자에게 미치는 보안 위협 |
| 저작권 문제로 인한 서비스 중단 영향 | 라이선스 비준수로 인한 서비스 중단이 사용자에게 미치는 영향 |
| 학습 데이터 출처 투명성 | 오픈 데이터셋 사용 시 데이터 출처와 사용 조건의 투명한 공개 |
체크포인트:
4. §6.2 AI 목표
오픈소스 컴플라이언스와 연계한 측정 가능한 AI 목표를 수립한다.
오픈소스 관련 AI 목표 예시
- AI SBOM 최신화율: 분기별 100% 유지
- 오픈소스 취약점 패치 완료율: Critical CVE 발견 후 14일 이내 패치율 95% 이상
- AI 모델 라이선스 검토 완료율: 신규 모델 도입 시 100% 사전 검토
- 데이터셋 라이선스 기록율: AI SBOM 내 데이터셋 라이선스 100% 기록
5. 참고
4 - 3. 지원
ISO/IEC 42001 §7(지원) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. AI 오픈소스 관리 역량 수립과 AI SBOM 문서화 방법을 안내한다.
1. 개요
ISO/IEC 42001 §7은 AI 관리 시스템을 운영하는 데 필요한 역량, 인식, 커뮤니케이션,
문서화를 다룬다. 오픈소스 담당자 관점에서는 **§7.2(역량)**과 **§7.5(문서화된 정보)**가
핵심 교차점이다.
2. §7.2 역량 — AI 오픈소스 관리 역량 ★
ISO/IEC 42001은 AI 관련 역할을 수행하는 인원이 필요한 역량을 갖추도록 요구한다.
오픈소스 컴플라이언스 관점에서 AI 개발·운영 인원에게 다음 역량이 포함되어야 한다.
AI 오픈소스 관리 역량 요소
| 역량 영역 | 내용 | 관련 교육 |
|---|
| AI 프레임워크 라이선스 이해 | PyTorch·TensorFlow 등 주요 라이선스 조건 파악 | 오픈소스 라이선스 교육 |
| AI 모델 라이선스 검토 | 커스텀 라이선스 조건(사용 제한, 파생물 처리) 분석 | 법무팀 협업 교육 |
| AI SBOM 작성 | SPDX 3.0 AI 프로파일 기반 AI SBOM 구성 방법 | AI SBOM 실습 |
| 오픈소스 취약점 관리 | AI 시스템 의존성 SCA 스캔 및 CVE 대응 | DevSecOps 교육 |
| 오픈 데이터 라이선스 | CC 계열 라이선스 조건 및 데이터셋 사용 규칙 | 데이터 라이선스 교육 |
기존 오픈소스 역량 체계와의 통합
ISO/IEC 5230 역량 체계 확장
기업이 ISO/IEC 5230 기반의 역량·교육 체계를 이미 운영 중이라면,
기존 오픈소스 교육 과정에 AI 특화 모듈을 추가하는 방식으로 확장한다.
추가 모듈 예시:
- AI 모델 라이선스 이해 (1시간)
- AI SBOM 작성 실습 (2시간)
- AI 공급망 오픈소스 검증 방법 (1시간)
관련 가이드: 기업 오픈소스 관리 가이드 — 5. 교육
체크포인트:
3. §7.5 문서화된 정보 — AI SBOM ★
ISO/IEC 42001 §7.5는 AI 관리 시스템 운영에 필요한 문서화된 정보를 수립·유지하도록 요구한다.
오픈소스 관점에서 **AI SBOM(AI System Bill of Materials)**은 §7.5의 핵심 산출물이다.
AI SBOM이란?
AI SBOM은 소프트웨어 SBOM(ISO 5230의 §3.3.1)을 AI 시스템으로 확장한 개념으로,
AI 시스템을 구성하는 모든 요소와 그 출처·라이선스를 문서화한 목록이다.
| 구분 | 기존 소프트웨어 SBOM | AI SBOM |
|---|
| 포함 대상 | 라이브러리, 패키지 | 프레임워크 + 모델 + 데이터셋 |
| 라이선스 | SPDX 표준 라이선스 | SPDX + AI 커스텀 라이선스 |
| 표준 형식 | SPDX 2.x, CycloneDX | SPDX 3.0 AI 프로파일 |
| 추가 메타데이터 | 없음 | 모델 파라미터 수, 학습 데이터 출처 등 |
AI SBOM 구성 요소
AI SBOM
├── 1. AI 프레임워크 · 라이브러리
│ name, version, license, hash
│
├── 2. 사전 훈련 모델 (Pre-trained Model)
│ name, version, license, modelCard URL
│ primaryPurpose (inference / training / fine-tuning)
│
├── 3. 학습 데이터셋
│ name, version, license, datasetType
│ knownBias (편향 정보, 있는 경우)
│
└── 4. 파인튜닝 데이터 (해당 시)
name, license, source
AI SBOM 작성 방법 상세: AI SBOM 가이드
SPDX 3.0 AI 프로파일 간략 예시
SPDXVersion: SPDX-3.0
DataLicense: CC0-1.0
# AI 프레임워크
- SPDXID: SPDXRef-pytorch
name: pytorch
versionInfo: "2.2.0"
licenseConcluded: BSD-3-Clause
primaryPurpose: library
# 사전 훈련 모델
- SPDXID: SPDXRef-llama3
name: meta-llama/Llama-3.1-8B
versionInfo: "3.1"
licenseConcluded: LicenseRef-Llama-Community
primaryPurpose: inference
modelCard: "https://huggingface.co/meta-llama/Llama-3.1-8B"
# 학습 데이터셋 (파인튜닝 시)
- SPDXID: SPDXRef-dataset-alpaca
name: tatsu-lab/alpaca
licenseConcluded: CC-BY-4.0
dataCollectionProcess: "Stanford Alpaca 52K instruction dataset"
체크포인트:
4. §7.3 인식
AI 시스템 관련 역할을 수행하는 인원이 오픈소스 컴플라이언스의 중요성을 인식하도록 한다.
체크포인트:
5. 참고
5 - 4. 운영
ISO/IEC 42001 §8(운영) 요구사항 중 오픈소스 관리와 교차하는 내용을 개괄한다. AI 시스템 생애주기에서의 오픈소스 컴플라이언스, AI SBOM, AI 공급망 검증을 다루는 세부 페이지로 안내한다.
개요
ISO/IEC 42001 §8은 AI 관리 시스템의 실제 운영 단계를 다룬다.
오픈소스 관점에서 §8은 가장 많은 교차점을 포함하는 섹션이다.
| 하위 조항 | 내용 | 오픈소스 교차 |
|---|
| §8.1 | 운영 기획 및 통제 | 오픈소스 검토 프로세스 운영 |
| §8.2~8.3 | AI 리스크 평가·처리 (운영 시) | OSS 취약점 리스크 대응 |
| §8.4 | AI 시스템 영향 평가 (운영 시) | OSS 취약점의 시스템 영향 |
| §8.5 | AI 시스템 생애주기 | ★ OSS 프레임워크·모델 라이선스 |
| §8.6 | AI 시스템을 위한 데이터 | ★ 오픈 데이터셋 라이선스 |
| §8.7 | 피드백 인터페이스 | — |
| §8.8 | 외부 AI 시스템 조달 | ★ 외부 OSS 모델 공급망 검증 |
세부 페이지
이 섹션의 오픈소스 교차 항목은 다음 세부 페이지에서 상세히 다룬다:
§8.1 운영 기획 — 오픈소스 검토 프로세스 통합
AI 시스템 개발 프로세스에 오픈소스 컴플라이언스 검토 단계를 통합한다.
flowchart TD
A[기획 단계] --> A1["OSS 프레임워크·모델 목록 작성\n라이선스 사전 검토"]
A1 --> B[개발 단계]
B --> B1["컴포넌트 추가 시 라이선스 확인\nAI SBOM 초안 작성\nSCA 스캔"]
B1 --> C[테스트·검증 단계]
C --> C1["AI SBOM 검토\n라이선스 의무 이행 확인\nCritical CVE 해결 확인"]
C1 --> D[배포 단계]
D --> D1["AI SBOM 최종본 보관\n라이선스 고지문 포함 확인"]체크포인트:
참고
5.1 - AI 시스템의 오픈소스 관리
ISO/IEC 42001 §8.5(AI 시스템 생애주기)와 §8.6(AI 데이터 관리)에 따라 AI 프레임워크, 사전 훈련 모델, 학습 데이터셋의 오픈소스 라이선스를 관리하는 방법을 설명한다.
1. 개요
ISO/IEC 42001 §8.5(AI 시스템 생애주기)와 §8.6(AI 데이터 관리)는 AI 시스템 개발 단계에서
관리해야 할 요구사항을 다룬다. 오픈소스 관점에서는 AI 시스템에 사용하는
오픈소스 컴포넌트의 라이선스 컴플라이언스가 핵심이다.
2. §8.5 AI 시스템 생애주기 — 오픈소스 프레임워크 · 모델 관리
2.1 기획·설계 단계
AI 시스템 기획 단계에서 사용할 오픈소스 프레임워크와 모델을 선정할 때
라이선스를 사전에 검토한다.
라이선스 사전 검토 절차:
1. 사용 후보 컴포넌트 목록 작성
(프레임워크명, 버전, 출처 URL)
2. 라이선스 확인
- 프레임워크: PyPI, npm, GitHub README 확인
- AI 모델: Hugging Face Model Card, 공식 저장소 확인
3. 라이선스 조건 검토 항목
□ 상업적 사용 허용 여부
□ 파생물(Fine-tuning 모델) 공개 의무 여부
□ 저작권 고지 의무 여부
□ 특허 조항 여부 (Apache 2.0의 명시적 특허 허여 등)
□ MAU 또는 매출 기반 사용 제한 여부
4. 허용 불가 라이선스 식별 시 대안 컴포넌트 탐색
2.2 개발 단계
개발 중 새로운 오픈소스 컴포넌트를 추가할 때마다 라이선스를 확인하고
AI SBOM에 즉시 반영한다.
SCA(소프트웨어 구성 분석) 도구 활용:
기존 오픈소스 스캔 도구를 AI 프로젝트 저장소에도 동일하게 적용한다.
# FOSSLight를 이용한 AI 프로젝트 스캔 예시
fosslight -p ./ai-project-dir -o ./ai-sbom-output
# cdxgen으로 Python AI 프로젝트 SBOM 생성
cdxgen -t python ./ai-project-dir -o ai-sbom.json
관련 도구 가이드:
2.3 주요 AI 프레임워크 라이선스 상세
| 프레임워크 | 라이선스 | 저작권 고지 | 특허 허여 | 상업 사용 | 소스 공개 |
|---|
| PyTorch | BSD 3-Clause | ✅ 필요 | ❌ 없음 | ✅ 가능 | ❌ 불필요 |
| TensorFlow | Apache 2.0 | ✅ 필요 | ✅ 있음 | ✅ 가능 | ❌ 불필요 |
| JAX | Apache 2.0 | ✅ 필요 | ✅ 있음 | ✅ 가능 | ❌ 불필요 |
| Hugging Face Transformers | Apache 2.0 | ✅ 필요 | ✅ 있음 | ✅ 가능 | ❌ 불필요 |
| LangChain | MIT | ✅ 필요 | ❌ 없음 | ✅ 가능 | ❌ 불필요 |
| scikit-learn | BSD 3-Clause | ✅ 필요 | ❌ 없음 | ✅ 가능 | ❌ 불필요 |
| ONNX Runtime | MIT | ✅ 필요 | ❌ 없음 | ✅ 가능 | ❌ 불필요 |
| vLLM | Apache 2.0 | ✅ 필요 | ✅ 있음 | ✅ 가능 | ❌ 불필요 |
2.4 주요 오픈소스 AI 모델 라이선스 비교
| 모델 | 라이선스 | 상업 사용 | 파생 모델 | 주요 제한 조건 |
|---|
| Llama 3.1 (8B/70B) | Meta Llama Community License | ✅ 조건부 | ✅ 가능 | MAU 7억 초과 시 Meta 허가 필요 |
| Llama 3.1 (405B) | Meta Llama Community License | ✅ 조건부 | ✅ 가능 | 모델 가중치 재배포 제한 |
| Mistral 7B | Apache 2.0 | ✅ 가능 | ✅ 가능 | 제한 없음 |
| Falcon 180B | Falcon License | ✅ 조건부 | ✅ 가능 | 수익 창출 시 라이선스 필요 |
| Gemma 2 | Gemma ToU | ✅ 조건부 | ✅ 가능 | Google 사용 정책 준수 |
| Phi-3 | MIT | ✅ 가능 | ✅ 가능 | 제한 없음 |
| BERT, GPT-2 | Apache 2.0 / MIT | ✅ 가능 | ✅ 가능 | 제한 없음 |
주의: 모델 라이선스 정기 재확인
AI 모델 라이선스는 버전 업데이트 시 조건이 변경될 수 있다.
모델을 장기간 사용하는 경우 분기별로 라이선스 조건 변경 여부를 재확인한다.
특히 상업적 사용 제한이나 MAU 조건이 있는 모델은 서비스 규모 변화에 따라 재검토가 필요하다.
체크포인트 — §8.5:
3. §8.6 AI 데이터 관리 — 학습 데이터셋 라이선스 ★
AI 시스템 학습에 사용한 데이터셋에 오픈 데이터 라이선스가 적용된 경우
해당 라이선스 조건을 이행해야 한다.
3.1 주요 오픈 데이터 라이선스 의무
| 라이선스 | 저작자 표시 | 동일 조건 | 상업 사용 | 이행 방법 |
|---|
| CC0 1.0 | ❌ 불필요 | ❌ 불필요 | ✅ 가능 | 별도 조치 불필요 |
| CC-BY 4.0 | ✅ 필요 | ❌ 불필요 | ✅ 가능 | 모델 카드에 데이터 출처 기재 |
| CC-BY-SA 4.0 | ✅ 필요 | ✅ 필요 | ✅ 가능 | 법무 검토 필요 (파생 모델 라이선스) |
| CC-BY-NC 4.0 | ✅ 필요 | ❌ 불필요 | ❌ 불가 | 비상업 연구 목적에만 사용 |
| ODbL (OpenStreetMap 등) | ✅ 필요 | ✅ 필요 | ✅ 가능 | 파생 데이터베이스 동일 조건 공개 |
3.2 모델 카드(Model Card) 작성
CC-BY 계열 데이터셋을 학습에 사용한 경우 모델 카드에 출처를 명시한다.
## Model Card — [모델명]
### Training Data
이 모델은 다음 데이터셋을 사용하여 학습되었습니다:
| 데이터셋 | 라이선스 | 출처 |
|---------|---------|------|
| Wikipedia (2024-01) | CC-BY-SA 4.0 | https://dumps.wikimedia.org/ |
| Common Crawl (CC-MAIN-2023) | 조건 없음 | https://commoncrawl.org/ |
| [내부 데이터셋] | 자체 소유 | 내부 |
체크포인트 — §8.6:
4. 참고
5.2 - AI SBOM
ISO/IEC 42001 §7.5(문서화된 정보)와 §8.5(AI 시스템 생애주기)에 따른 AI SBOM(AI System Bill of Materials) 구성 방법과 생성 도구를 안내한다.
1. AI SBOM이란?
**AI SBOM(AI System Bill of Materials)**은 AI 시스템을 구성하는 모든 요소의 목록과
그 출처·라이선스를 문서화한 것이다. 소프트웨어 SBOM(ISO/IEC 5230 §3.3.1)의 개념을
AI 시스템으로 확장한 것으로, ISO/IEC 42001 §7.5(문서화된 정보) 요구사항의 핵심 산출물이다.
AI SBOM이 필요한 이유: 투명성과 규제 대응
AI SBOM은 AI 시스템의 투명성과 설명 가능성을 확보하는 핵심 수단이다.
ISO/IEC 42001 Appendix C.2.11은 투명성과 설명 가능성을 AI 관리 시스템의 핵심 목표로 명시한다.
| 요구 주체 | 근거 | AI SBOM 역할 |
|---|
| ISO/IEC 42001 | Appendix C.2.11 (투명성·설명 가능성) | AI 시스템 구성 투명성 확보 |
| EU AI Act | 고위험 AI 시스템 기술 문서 요건 | 학습 데이터·모델 출처 명시 |
| EU Cyber Resilience Act(CRA) | AI 제품의 투명성 의무 | 컴포넌트 목록 및 취약점 추적 |
| OpenChain AI Work Group | AI SBOM Compliance Guide | 공급망 내 AI SBOM 표준 절차 |
ISO/IEC 42003과 AI SBOM
ISO/IEC 42001의 구현 가이드인 ISO/IEC 42003(개발 중)에 AI SBOM 관련 구체적 요구사항이
포함될 예정이다. OpenChain AI Work Group은 AI SBOM 가이드를 42003의
§6.2(AI 목표)와 Appendix C.2.11(투명성·설명 가능성)에 반영하는 것을 추진 중이다.
AI SBOM vs 소프트웨어 SBOM
| 비교 항목 | 소프트웨어 SBOM | AI SBOM |
|---|
| 포함 대상 | 라이브러리, 패키지, 실행 파일 | 프레임워크 + 모델 + 데이터셋 |
| 라이선스 유형 | SPDX 표준 라이선스 | SPDX + AI 커스텀 라이선스 (Llama, Gemma ToU 등) |
| 표준 형식 | SPDX 2.x, CycloneDX 1.4 | SPDX 3.0 AI 프로파일, CycloneDX 1.6 |
| 추가 정보 | 없음 | 모델 파라미터 수, 학습 데이터 출처, 모델 목적 등 |
| 관련 ISO 표준 | ISO/IEC 5230 §3.3.1 | ISO/IEC 42001 §7.5 |
2. AI SBOM 구성 요소
AI SBOM
│
├── 1. AI 프레임워크 · 라이브러리
│ (일반 소프트웨어 SBOM과 동일한 항목)
│ - name, version, license, PURL, hash
│
├── 2. 사전 훈련 모델 (Pre-trained Model)
│ - name, version, license
│ - primaryPurpose (inference / training / fine-tuning / evaluation)
│ - modelCard URL (모델 카드 링크)
│ - baseModel (파인튜닝 시 원본 모델)
│
├── 3. 학습 데이터셋
│ - name, version, license
│ - dataCollectionProcess (수집 방법)
│ - dataType (text / image / audio / etc.)
│ - knownBias (알려진 편향, 있는 경우)
│
├── 4. 파인튜닝 데이터 (해당 시)
│ - name, license, source
│ - dataType
│
└── 5. Fact Sheet (AI 시스템 카드) ★
- 편향(bias) 정보 및 한계 사항
- 데이터 출처 및 데이터 가용성
- 모델 성능 및 평가 결과 요약
- 의도된 사용 목적 및 금지 사용 목적
- 안전성·보안 관련 알려진 이슈
Fact Sheet란?
Fact Sheet(또는 모델 카드 확장판)는 AI 시스템의 투명성·설명 가능성을 제공하는 문서다.
ISO/IEC 42001 Appendix C.2.11과 EU AI Act의 고위험 AI 기술 문서 요건을 충족하는 핵심 수단이다.
OpenChain AI Work Group은 이 Fact Sheet 정보를 AI SBOM의 표준 구성 요소로 포함하는 것을 추진 중이다.
3. SPDX 3.0 AI 프로파일 활용
SPDX 3.0은 AI 시스템을 위한 AI 프로파일을 새롭게 포함한다.
OpenChain Korea Work Group의 AI Work Group이 이 형식을 기반으로 AI SBOM 가이드를 개발했다.
AI SBOM SPDX 3.0 예시
spdxVersion: SPDX-3.0
SPDXID: SPDXRef-DOCUMENT
name: "MyAI-Service AI SBOM"
dataLicense: CC0-1.0
created: "2026-04-01T00:00:00Z"
createdBy:
- type: Tool
identifier: "cdxgen-10.0"
packages:
# 1. AI 프레임워크
- SPDXID: SPDXRef-pytorch
name: torch
versionInfo: "2.2.0"
supplier: "Organization: Meta AI"
downloadLocation: "https://pypi.org/project/torch/2.2.0/"
licenseConcluded: BSD-3-Clause
primaryPurpose: library
- SPDXID: SPDXRef-transformers
name: transformers
versionInfo: "4.40.0"
supplier: "Organization: Hugging Face"
downloadLocation: "https://pypi.org/project/transformers/4.40.0/"
licenseConcluded: Apache-2.0
primaryPurpose: library
# 2. 사전 훈련 모델
- SPDXID: SPDXRef-llama3-8b
name: meta-llama/Llama-3.1-8B-Instruct
versionInfo: "3.1"
supplier: "Organization: Meta AI"
downloadLocation: "https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct"
licenseConcluded: LicenseRef-Meta-Llama-Community-License
primaryPurpose: inference
# AI 프로파일 확장 필드
modelCard: "https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct"
hyperparameter:
contextWindow: 131072
# 3. 파인튜닝 데이터셋
- SPDXID: SPDXRef-dataset-alpaca-korean
name: beomi/KoAlpaca-v1.1a
versionInfo: "1.1a"
downloadLocation: "https://huggingface.co/datasets/beomi/KoAlpaca-v1.1a"
licenseConcluded: CC-BY-NC-4.0
primaryPurpose: trainData
dataCollectionProcess: "Korean instruction-following dataset"
relationships:
- spdxElementId: SPDXRef-llama3-8b
relationshipType: TRAINED_ON
relatedSpdxElement: SPDXRef-dataset-alpaca-korean
CC-BY-NC 데이터셋 주의
위 예시의 beomi/KoAlpaca-v1.1a 데이터셋은 CC-BY-NC 4.0 라이선스로,
비상업적 목적에만 사용 가능하다. 상업 서비스에 이 데이터셋으로 파인튜닝한 모델을
사용하고 있다면 즉시 법무팀과 협의해야 한다.
이 예시는 AI SBOM 형식 설명을 위한 것이며, 상업 서비스에서는 Apache 2.0, MIT,
CC-BY 4.0, CC0 등 상업적 사용이 가능한 라이선스의 데이터셋을 사용한다.
4. AI SBOM 생성 도구
4.1 cdxgen (CycloneDX 형식)
cdxgen은 Python AI 프로젝트의 의존성을 분석하여 CycloneDX 형식의 SBOM을 생성한다.
AI 특화 필드는 별도로 추가해야 한다.
# Python AI 프로젝트 SBOM 생성
cdxgen -t python ./my-ai-project -o ai-sbom.json
# requirements.txt 기반 생성
cdxgen -t pypi -r requirements.txt -o ai-sbom.json
도구 가이드: cdxgen 사용 가이드
4.2 Syft (컨테이너 이미지 분석)
AI 서비스를 컨테이너로 배포하는 경우 Syft로 컨테이너 이미지 전체의 SBOM을 생성한다.
# AI 서비스 컨테이너 이미지 SBOM 생성
syft my-ai-service:latest -o spdx-json=ai-container-sbom.json
도구 가이드: Syft 사용 가이드
4.3 Dependency-Track (AI SBOM 관리 및 취약점 추적)
생성된 AI SBOM을 Dependency-Track에 업로드하면 지속적으로 취약점을 모니터링할 수 있다.
# Dependency-Track에 AI SBOM 업로드
curl -X "POST" "http://dtrack:8080/api/v1/bom" \
-H "X-Api-Key: ${DTRACK_API_KEY}" \
-F "bom=@ai-sbom.json" \
-F "projectName=MyAI-Service" \
-F "projectVersion=1.0.0"
도구 가이드: Dependency-Track 사용 가이드
5. AI SBOM 운영 절차
AI SBOM 수명주기 관리
AI 시스템 개발 착수
└─ AI SBOM 초안 작성 (프레임워크·모델 확정 시)
└─ 개발 중 컴포넌트 추가 시 즉시 갱신
└─ 배포 전 AI SBOM 최종 검토
└─ 배포 시 AI SBOM 보관 (버전별)
└─ 운영 중 신규 취약점 발견 시 AI SBOM 연계 대응
└─ 모델 라이선스 변경 모니터링 → 필요시 AI SBOM 갱신
체크포인트:
6. AI Work Group 가이드 연계
OpenChain Korea Work Group의 AI Work Group은 AI SBOM Compliance Guide를 개발·발표했다.
이 가이드는 SPDX 3.0 AI 프로파일을 활용한 AI SBOM 작성 방법을 상세히 안내한다.
7. 참고
5.3 - AI 공급망 검증
ISO/IEC 42001 §8.8(외부 당사자가 공급하는 AI 시스템 사용)에 따라 외부에서 조달하는 오픈소스 AI 모델과 AI 서비스의 공급망 검증 방법을 안내한다.
1. 개요
ISO/IEC 42001 §8.8은 외부에서 조달하는 AI 시스템(모델, API, 서비스)을 사용할 때
적절한 평가와 검증을 수행할 것을 요구한다. 오픈소스 관점에서는 외부 오픈소스 AI 모델을
조달할 때 라이선스·보안·공급망 리스크를 검증하는 절차가 핵심이다.
2. 외부 AI 조달의 세 가지 유형
| 유형 | 예시 | 오픈소스 관련성 |
|---|
| 오픈소스 AI 모델 직접 사용 | Llama, Mistral, Falcon 모델 가중치 다운로드 | 높음 — 라이선스 직접 적용 |
| 오픈소스 기반 AI 서비스 | Hugging Face Inference API, Ollama | 중간 — 기반 모델 라이선스 확인 필요 |
| 상용 AI API | OpenAI API, Google Vertex AI | 낮음 — 서비스 약관 적용 (OSS 라이선스 직접 적용 안 됨) |
이 가이드는 **유형 1(오픈소스 AI 모델 직접 사용)**과 **유형 2(오픈소스 기반 AI 서비스)**를 중심으로 다룬다.
3. 오픈소스 AI 모델 조달 전 검증 체크리스트
외부 오픈소스 AI 모델을 도입하기 전 다음 항목을 검증한다.
3.1 라이선스 검증
## 오픈소스 AI 모델 라이선스 검증 체크리스트
### 기본 라이선스 정보
- [ ] 라이선스 유형 확인: ___________________
(Apache 2.0 / MIT / Llama Community / Gemma ToU / 기타)
- [ ] 라이선스 원문 출처 URL: ___________________
- [ ] 라이선스 버전 확인 (동일 모델의 이전 버전과 다를 수 있음)
### 상업적 사용 조건
- [ ] 상업적 사용 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 사용자 수(MAU) 제한 조건: ___________________
(예: Llama 3 — MAU 7억 초과 시 Meta 허가 필요)
- [ ] 매출 기반 제한 조건: ___________________
### 파생물(Fine-tuning) 조건
- [ ] 파인튜닝 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 파인튜닝 모델 공개 의무 여부: ___________________
- [ ] 파인튜닝 모델 라이선스 요건: ___________________
### 재배포 조건
- [ ] 모델 가중치 재배포 허용 여부: ✅ 허용 / ⚠️ 조건부 / ❌ 불허
- [ ] 재배포 시 라이선스 문서 포함 의무: ___________________
### 표시(Attribution) 의무
- [ ] 저작자 표시 필요 여부: ✅ 필요 / ❌ 불필요
- [ ] 표시 방법 및 위치: ___________________
(서비스 UI, 문서, API 응답 등)
### 법무 검토 필요 여부
- [ ] 표준 SPDX 라이선스가 아닌 경우 법무팀 검토 완료: ✅ / 해당 없음
- [ ] 법무팀 검토 일자: ___________________
- [ ] 검토 의견: ___________________
3.2 보안 검증
### 보안 검증 항목
- [ ] 공식 배포 채널에서 다운로드 확인
(공식 GitHub, Hugging Face 공식 계정)
- [ ] 파일 해시(SHA256) 검증 완료
- [ ] 알려진 취약점(CVE) 조회 완료
(NVD, OSV.dev 검색 결과: ___________________)
- [ ] 모델 가중치의 악성 코드 삽입 여부 검토
(신뢰할 수 없는 출처의 모델은 사용 금지)
- [ ] 라이선스 변경 모니터링 채널 등록
(GitHub Watch, 공식 뉴스레터 등)
3.3 공급망 리스크 평가
### 공급망 리스크 평가 항목
- [ ] 모델 공급자의 신뢰도 확인
(개인 / 연구기관 / 기업 — 오픈소스 커뮤니티 평판)
- [ ] 모델 유지보수 활성도 확인
(마지막 업데이트 일자, 이슈 대응 현황)
- [ ] 라이선스 변경 이력 확인
(과거 라이선스 조건 변경 사례 여부)
- [ ] 대안 모델 식별
(라이선스 변경 또는 서비스 중단 시 대안)
4. 주요 오픈소스 AI 모델 라이선스 리스크 요약
| 모델 계열 | 라이선스 | 주요 리스크 |
|---|
| Llama 3.x | Meta Llama Community License | MAU 7억 초과 시 Meta 승인 필요, 라이선스 버전별 조건 차이 |
| Llama 2 | Meta Llama 2 Community License | 경쟁사(Meta 기준) 사용 제한, 파생 모델 “Llama 2” 명칭 사용 제한 |
| Gemma 2 | Google Gemma ToU | Google 사용 정책 위반 시 라이선스 즉시 종료 |
| Falcon | Falcon License | 특정 규모 이상 수익 창출 시 라이선스 필요 (조건 확인 필수) |
| Mistral 7B | Apache 2.0 | 리스크 낮음 |
| Phi-3 | MIT | 리스크 낮음 |
| GPT-2, BERT | MIT / Apache 2.0 | 리스크 낮음 |
커스텀 라이선스 모델 사용 시 주의
Llama, Gemma 등 커스텀 라이선스를 사용하는 모델은 라이선스 원문을 직접 읽고
법무팀 검토를 거친 후 사용한다. 커스텀 라이선스는 SPDX 표준 라이선스가 아니므로
일반적인 라이선스 분류 도구로는 자동 검토가 불가능하다.
5. 외부 AI 모델 조달 프로세스
flowchart TD
A[도입 필요 모델 식별] --> B[후보 모델 목록 작성]
B --> C[라이선스 검증]
C --> D{커스텀 라이선스?}
D -- Yes --> E[법무팀 검토]
D -- No --> F[보안 검증]
E --> F
F --> G[공급망 리스크 평가]
G --> H[도입 승인]
H --> I[AI SBOM 등록]
I --> J[라이선스 모니터링 등록]체크포인트:
6. 참고
6 - 5. 성과 평가와 개선
ISO/IEC 42001 §9(성과 평가)와 §10(개선) 요구사항 중 오픈소스 관리와 교차하는 내용을 설명한다. 오픈소스 컴플라이언스 지표를 AI 관리 시스템의 성과 지표와 통합하는 방법을 안내한다.
1. 개요
ISO/IEC 42001 §9와 §10은 AI 관리 시스템이 의도한 결과를 달성하고 있는지 확인하고,
부족한 점을 개선하는 사이클을 다룬다. 오픈소스 관점에서는
**§9.1(모니터링·측정)**이 오픈소스 컴플라이언스 지표와 연계된다.
2. §9.1 모니터링 및 측정 — 오픈소스 컴플라이언스 지표 ★
ISO/IEC 42001은 AI 관리 시스템의 성과를 모니터링하고 측정할 것을 요구한다.
기존 오픈소스 컴플라이언스 지표를 AI 관리 시스템의 성과 지표에 통합한다.
오픈소스 관련 AI 성과 지표 예시
| 지표 | 측정 방법 | 목표 | 측정 주기 |
|---|
| AI SBOM 최신화율 | AI 배포 대비 AI SBOM 갱신 완료율 | 100% | 배포 시마다 |
| 모델 라이선스 검토율 | 신규 도입 모델 대비 라이선스 검토 완료율 | 100% | 분기별 |
| Critical CVE 패치율 | Critical CVE 발견 후 14일 이내 패치 완료율 | 95% 이상 | 월별 |
| 데이터셋 라이선스 기록율 | AI SBOM 내 데이터셋 라이선스 기록 완료율 | 100% | 분기별 |
| OSS 라이선스 위반 건수 | 라이선스 위반 발견 건수 및 해결 소요 시간 | 0건 목표 | 월별 |
| AI 공급망 검증율 | 외부 모델 조달 시 공급망 검증 완료율 | 100% | 조달 시마다 |
ISO/IEC 5230 · 18974 지표와 통합
이미 ISO/IEC 5230 또는 18974 기반의 오픈소스 컴플라이언스 지표를 운영 중이라면,
AI 관련 지표를 기존 오픈소스 대시보드에 추가하는 방식으로 통합 관리한다.
별도의 AI 전용 측정 체계를 구축할 필요가 없다.
체크포인트:
3. §9.2 내부 감사
AI 관리 시스템이 ISO 42001 요구사항을 충족하는지 정기적으로 내부 감사를 수행한다.
오픈소스 컴플라이언스 항목을 내부 감사 체크리스트에 포함한다.
AI 오픈소스 내부 감사 체크리스트
## AI 시스템 오픈소스 컴플라이언스 내부 감사 체크리스트
### 감사 대상: [AI 시스템명] / 감사 일자: YYYY-MM-DD
#### AI SBOM
- [ ] AI SBOM이 최신 배포 버전을 반영하고 있는가?
- [ ] 모든 프레임워크·모델·데이터셋이 AI SBOM에 포함되어 있는가?
- [ ] 각 컴포넌트의 라이선스 정보가 정확하게 기록되어 있는가?
#### 라이선스 컴플라이언스
- [ ] 모든 오픈소스 AI 컴포넌트의 라이선스 조건이 검토되었는가?
- [ ] 라이선스 의무(저작권 고지, 변경 고지 등)가 이행되었는가?
- [ ] 상업적 사용 제한이 있는 모델을 상업 서비스에 사용하고 있지 않은가?
#### 보안 취약점 관리
- [ ] 최근 분기 내 SCA 스캔이 수행되었는가?
- [ ] 식별된 Critical/High CVE가 적시에 패치되었는가?
- [ ] 취약점 처리 이력이 기록되어 있는가?
#### AI 공급망
- [ ] 외부 조달 AI 모델의 라이선스 검증이 완료되었는가?
- [ ] 외부 모델의 라이선스 변경 사항이 모니터링되고 있는가?
4. §9.3 경영 검토
최고경영진의 AI 관리 시스템 경영 검토 시, 오픈소스 컴플라이언스 현황을 보고 항목에 포함한다.
경영 검토 보고 항목 예시:
- AI SBOM 관리 현황 (최신화율, 커버리지)
- 오픈소스 라이선스 위반 발생 현황 및 조치
- AI 시스템 보안 취약점 현황 및 패치율
- AI 공급망 오픈소스 리스크 현황
5. §10.1 부적합 및 시정 조치
오픈소스 컴플라이언스 위반이 발견된 경우 다음 절차를 따른다:
- 즉각 조치: 위반 사항 격리 또는 임시 조치 (예: 해당 기능 서비스 중단)
- 원인 분석: 왜 위반이 발생했는지 근본 원인 파악
- 시정 조치: 위반 해결 (라이선스 준수, 컴포넌트 교체 등)
- 재발 방지: 프로세스 개선 (검토 절차 강화, 교육 등)
- 기록 보존: 위반 내용, 조치, 결과를 문서화
6. §10.2 지속적 개선
AI 시스템 오픈소스 관리 체계를 지속적으로 개선하기 위한 방향:
- 새로운 AI 모델 라이선스 유형에 대한 검토 기준 업데이트
- AI SBOM 생성 자동화 도구 도입 (cdxgen, Syft 등 활용)
- AI Work Group의 최신 가이드 반영
7. 참고