목차
1. 법의 배경과 목적
AI기본법은 AI 기술의 폭발적 성장 속에서 국민 권익 보호와 국가 경쟁력 강화를 목표로 제정됐다. 과학기술정보통신부는 3년마다 국가 AI 기본계획을 수립하고, 대통령 소속 국가인공지능위원회가 이를 심의, 의결한다.
고영향 AI(생명, 안전, 기본권에 중대 영향 미침)와 생성형 AI(챗GPT처럼 콘텐츠 생성)를 중점 규제하며, 산업 육성과 윤리 확보를 동시에 추구한다.
2. 정부의 핵심 의견
정부 입장: 산업 진흥 우선, 자율 규제 강고
과학기술정보통신부는 AI 위험 사전 예방과 혁신 장려를 강조한다. 모든 AI를 규제하지 않고 고영향 AI에 한정해 의무를 부과하며, 시행 초기 1년 이상 과태료 유예와 조사 중단으로 기업 부담을 최소화하겠다고 밝혔다.
하위법령은 민간 전문가 80여 명 의견을 수렴해 마련됐으며, 지원데스크를 통해 컨설팅 제공으로 법 준수를 돕는다.
3. 우리가 알아야 할 점
🚨 권익 보호와 한계
시민은 AI 생성 콘텐츠 식별로 사기/허위 정보 피해를 막을 수 있다. 하지만 법이 산업 편향이라는 비판이 크다. 인권과 보안의 규제 미흡, 고영향 범위 모호로 모든 AI가 해당될 우려가 있다.
위반 시 과태료는 최대 3천만 원이 있지만 초기 유예로 실효성이 논란이 될 수 있다.
❓EU AI법과의 차이
| 항목 | 한국 AI기본법 | EU AI법 |
|---|---|---|
| 주요 대상 | 고영향 AI (영향 기반) | 고위험 AI (용도·컴퓨팅 기반) |
| 규제 강도 | 자율·권고 중심, 유예 | 강제 인증(CE 마킹) |
| 범용 AI | 규제 공백 (장려) | 투명성·안전 의무 |
4. 글을 마치며
AI기본법은 한국 AI의 미래를 여는 첫 걸음으로 정부의 산업 육성 의지가 강하지만, 우리의 데이터와 권리를 지키는 주체가 되어야 한다. 법 시행 초기 변화를 관찰하며 더 강한 보호를 요구하는 목소리를 내는 것이 중요하다.
AI가 공포가 아닌 동반자가 되기를 기대하며 글을 마친다.