[Regulatory News]_ [2024-3211]_미국 캘리포니아주, 인공지능(AI) 모델 안전 규제 법안 도입

 캘리포니아주, 인공지능(AI) 모델 안전 규제 법안 도입

 미국 캘리포니아주는 인공지능(AI) 기술 개발 및 활용의 안전성을 강화하기 위해 '프론티어 인공지능 모델 안전 혁신법'(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)을 통과시켰습니다. 이 법안은 고급 AI 모델의 개발 및 운영과 관련한 안전, 보안, 책임 체계를 규정하며, 기술 혁신과 공공 안전 사이의 균형을 도모합니다.


주요 내용

1. 적용 대상 및 정의

  • 적용 모델: 초고성능 AI 모델(훈련에 막대한 컴퓨팅 자원을 사용한 모델)과 해당 모델에서 파생된 파생 모델.
  • '중대한 피해'(Critical Harm): 생명 손실, 대규모 사이버 공격, 대규모 재산 피해 등을 포함.

2. AI 개발자의 의무

  • 안전 및 보안 프로토콜: AI 모델의 개발 및 운영 전, 위험을 관리하기 위한 기술적, 행정적 조치를 포함한 문서화된 프로토콜을 수립해야 합니다.
  • 정기 감사: 독립적인 제3자에 의한 연간 감사 보고서를 제출해야 하며, 감사 내용은 법무장관에게 제공됩니다.
  • 안전 사고 보고: AI 안전 사고가 발생하면 72시간 이내에 주 법무장관에게 보고해야 합니다.
  • 모델 종료 기능: 긴급 상황에서 AI 모델의 작동을 즉시 중단할 수 있는 기능을 구현해야 합니다.

3. 컴퓨팅 클러스터 운영자의 책임

  • 클러스터 이용 고객의 신원 및 사용 목적을 확인하고, AI 모델 훈련 시 잠재적 위험을 평가해야 합니다.
  • 고객이 사용하는 자원에 대해 긴급 중단 조치를 실행할 수 있는 기능을 마련해야 합니다.

4. AI 거버넌스 위원회 설립

  • 프론티어 모델 위원회가 설립되어 AI 모델 규제를 감독하며, 모델 정의 및 감사 기준을 지속적으로 업데이트합니다.
  • 위원회 구성은 AI, 핵무기, 사이버 보안 전문가 등으로 이루어집니다.

5. CalCompute 프로젝트

  • AI 기술 연구와 공정한 혁신을 지원하기 위한 공공 클라우드 컴퓨팅 플랫폼인 'CalCompute'를 개발할 계획입니다.
  • 이를 통해 학계, 스타트업, 중소기업 등 다양한 사용자가 고급 컴퓨팅 자원에 접근할 수 있도록 지원합니다.

6. 위반 시 처벌

  • 안전 규정을 위반한 경우 최대 10%의 컴퓨팅 비용을 기준으로 벌금 부과 가능.
  • 중대한 위반 사례는 추가로 최대 1천만 달러의 벌금이 부과될 수 있습니다.

입법 취지

캘리포니아주는 인공지능 기술의 잠재적 위험을 방지하면서도 혁신을 촉진하기 위해 이 법안을 제정했습니다. 이는 공공 안전을 확보하고, AI 기술이 공정하고 책임감 있게 발전하도록 유도하기 위한 세계 최초의 시도로 평가됩니다.

다음 이전