미국, 정부 기관에 ‘AI 안전장치’ 의무화

Mar 29, 2024

백악관 새 정책 규칙 발표…올해 12월까지 AI 안전장치 마련 요구

인공지능 (PG)
인공지능 (PG) [박은주 제작] 사진합성·일러스트

백악관이 28일 인공지능(AI)을 업무에 활용하는 정부 기관들에 AI로 인한 부작용을 막기 위한 구체적인 안전장치를 의무적으로 마련하도록 했다고 밝혔다.

이날 로이터·AP 통신 등 외신에 따르면 백악관 예산관리국(OMB)은 연방 정부 기관들이 AI를 활용할 경우 그 내용을 대중에 투명하게 공개하고 부작용과 영향력에 대해 검증 및 모니터링을 하도록 하는 새 정책 규칙을 발표했다.

백악관에 따르면 미국 내 대부분의 정부 기관은 올해 12월까지 업무에 활용하고 있는 AI 도구의 부작용 방지를 위한 구체적인 안전장치를 마련해야 한다.

또 각 정부 기관은 AI 기술 활용을 감시할 수 있는 숙련된 ‘최고 AI 담당관'(Chief AI Officer)을 채용해야 하며, 매년 각 기관이 활용하고 있는 AI의 분야 및 내용, 가능한 부작용 목록을 대중에 공개해야 하는 의무도 부과된다.

여기에는 공항 얼굴인식부터 전력망 관리, 대출, 보험, 의료, 날씨 등 각종 분야에서 정부 기관들이 활용하고 있는 AI 도구들이 포함된다.

이러한 안전장치를 도입하지 않은 기관들에 대해 “기관 수장이 AI 시스템 사용을 중단했을 시 기관 업무에 심각한 장애가 초래되거나 안전 혹은 권리상 위험을 키울 것이라는 사유를 밝히지 못하는 이상 AI 사용을 반드시 중단해야 한다”고 백악관 측은 설명했다.

카멀라 해리스 미 부통령은 “앞으로 정부 기관들이 AI 도구를 사용할 경우 그 도구들이 미국인의 권리 및 안전을 위험하게 만들지 않는다는 사실을 입증하도록 요구할 것”이라고 설명했다.

AI 무기 도입 등에 대해 추가 논의가 진행 중인 정보 당국과 국방부 등 일부 기관들은 이번 규칙 적용 대상에서 제외됐다.

이번 정책은 앞서 조 바이든 미 대통령이 지난해 10월 서명한 ‘안전하고 신뢰할 수 있는 AI에 대한 행정명령’에 따른 후속 조치다.

당시 바이든 대통령은 행정명령을 통해 미국 기업들에 자사가 개발한 AI가 국가 안보나 경제 및 건강상 위험을 초래할 경우 이를 연방 정부에 통지하고, AI에 대한 안전 테스트 결과 및 주요 정보를 정부와 공유하도록 했다.

이를 통해 기업의 AI 개발 및 활용에 대한 안전장치 마련을 의무화했던 백악관은 이번 정책 규칙에서는 정부 기관의 AI 활용에 초점을 맞췄다.