AI 기본법, 창작자 보호와 기술 혁신 사이에서 한국이 그어야 할 선

글목록보기

한국 AI 기본법과 창작자 보호 논쟁을 기술 혁신과의 균형이라는 시각에서 짚어본다.

대한민국은 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」, 이른바 AI 기본법을 제정해 2026년 1월 22일 시행을 앞두고 있다. 그러나 학습 데이터 공개, 창작자의 동의·보상 구조는 여전히 공백에 가깝다는 비판이 이어진다. 지나친 규제가 혁신을 막을 수 있고, 반대로 무규제가 창작 생태계를 고갈시킬 수 있다는 딜레마 속에서, 어디에 선을 그을 것인지가 한국 사회의 과제가 되고 있다.

최종 업데이트 2025-11-28

OpenAI 첫 판결 : 학습 자유 vs 저작권 보호에서 독일 GEMA vs OpenAI 소송과 메모라이제이션 판결의 의미를 따로 정리해 두었다.

1. 한국 AI 기본법, 무엇을 위한 법인가

AI 기본법의 공식 명칭은 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」이다. 이름 그대로 산업 발전과 사회적 신뢰를 동시에 추구하겠다는 목표를 내세운다. 법의 구조를 뜯어보면 인공지능 기술 개발과 활용을 지원하는 진흥 규정이 뼈대를 이루고, 고위험·고영향 AI에 대한 관리와 안전 의무가 그 위에 얹혀 있는 형태다. 생성형 AI가 만든 결과물이라는 사실을 명확히 알리도록 하는 투명성 조항도 포함돼 있다.

시행일은 2026년 1월 22일로 정해져 있고, 2025년 11월에는 과학기술정보통신부가 시행령 제정안을 입법예고했다. 시행령에는 고영향 인공지능의 범위, 사업자의 안전 조치, 결과물 고지 방식 같은 세부 기준이 담기기 시작했다. 다만 학습 데이터의 출처를 어느 수준까지 공개할 것인지, 데이터셋에 포함된 저작물에 대한 동의와 보상은 어떻게 설계할 것인지에 대해서는 여전히 큰 틀의 방향만 언급될 뿐이다. 기본법이 산업·규제의 프레임을 잡는 수준에 머물러 있다는 평가가 나오는 이유가 여기에 있다.

결국 한국 AI 기본법은 “AI를 어떻게 키울 것인가”에 대해서는 비교적 선명한 답을 내놓는다. 반면 “AI가 무엇을 먹고 자라는지, 그 비용을 누가 감당할 것인지”에 대해서는 기존 저작권법과 향후 개별 입법으로 넘겨 놓은 상태다. 이 공백이 내년 이후 논쟁의 중심으로 떠오를 가능성이 크다.

AI 기본법은 산업·안전의 큰 틀을 제시했지만 학습 데이터와 창작자 보상에 관해서는 여전히 여백을 남겼다.

2. 창작자 단체가 느끼는 공백과 불안

국내 출판·방송·영화·음악·미술 등 15개 창작자 단체는 2025년 5월 공동 성명을 통해 AI 기본법을 정면으로 비판했다. 핵심 메시지는 “AI가 학습한 창작물에 대한 투명한 공개 의무와 저작권법 준수 의무, 정당한 보상 체계를 기본법에 명시하라”는 요구였다. 현재 구조에서는 AI 사업자가 어떤 작품을 얼마나 학습에 썼는지, 그 결과물이 어디까지 재현되는지 창작자가 알 길이 없다는 지적도 함께 나왔다. 창작물의 무단 학습이 이미 일상화됐다는 문제의식이 깔려 있다.

창작자들이 특히 문제 삼는 지점은 기본법의 시선이다. 법 조문에는 인공지능 사업자, 이용자, 관계 행정기관의 역할과 권한이 비교적 상세히 등장한다. 그에 비해 저작권자나 대중문화 창작자는 “보호 대상” 정도로만 등장할 뿐, 당사자로서의 발언권과 협상력을 제도적으로 담보받고 있지 못하다. 학습 데이터 공개, 옵트아웃 권리, 수익 분배 기준처럼 민감한 의제는 모두 ‘향후 논의’로 미뤄진 상태다.

이런 상황에서 창작자들이 느끼는 감정은 단순한 불만을 넘어 구조적 불안에 가깝다. 지금 만드는 소설, 노래, 그림이 몇 년 뒤 어떤 AI 모델의 연료가 될지 알 수 없고, 나중에 발견해도 소급해 대응하기 어렵기 때문이다. “AI가 내 작품으로 돈을 버는 동안 나는 어떤 권리를 가질 수 있는가”라는 질문에, 현행 AI 기본법만으로는 답을 찾기 어렵다. 그래서 이 법이 “창작자 없는 법”이라는 평가를 받게 됐다.

창작자 단체의 문제의식은 AI 기본법이 학습 데이터 공개와 동의·보상 구조를 비워둔 채 산업과 행정에만 초점을 맞췄다는 데 모인다.

3. 지나친 규제와 무규제 사이, 어려운 줄타기

창작자 보호를 강화하자는 요구가 곧바로 강한 규제로 이어질 경우, 다른 종류의 문제가 생긴다. 학습 데이터마다 이용 허락을 확인하고 라이선스 비용을 지불해야 하는 구조가 되면, 거대한 자본과 법무 인력을 가진 소수 기업만 인공지능 모델을 개발할 수 있다. 중소 스타트업이나 연구자, 실험적인 오픈소스 프로젝트는 시작 단계에서부터 벽에 부딪칠 수 있다. 규제가 의도와 달리 시장 집중과 진입 장벽을 키우는 역효과를 낼 가능성을 무시하기 어렵다.

반대로 규제가 느슨하면 또 다른 위험이 드러난다. 노래 가사, 웹소설, 만화 원고 같은 고가치 텍스트가 창작자 동의 없이 대규모로 학습에 쓰이고, 그 결과물이 모델에서 사실상 원문에 가깝게 재현되는 상황이 계속될 수 있다. 이런 구조가 지속되면 창작자에게 돌아오는 경제적 보상과 상징적 보람이 줄어들고, 장기적으로는 새로운 콘텐츠 자체가 줄어드는 악순환이 발생할 수 있다. 인공지능이 지금의 성과를 내기 위해 소비한 연료가 미래에는 더 이상 채워지지 않는 역설이 생기는 것이다.

결국 쟁점은 “규제냐, 혁신이냐”라는 단순 대립 구도가 아니다. 어디까지를 공공적 데이터 풀로 보고 자유로운 학습을 허용할 것인지, 어디부터는 개별 동의와 보상을 요구할 것인지를 정교하게 나누는 문제가 중심에 있다. 여기에 비영리 연구와 상업 서비스, 소형 모델과 초거대 모델의 구분까지 더해지면, 정책 설계는 훨씬 복잡한 퍼즐이 된다. 한국 사회가 지금 마주한 것은 바로 이 난이도 높은 줄타기다.

창작자 보호와 기술 혁신의 충돌은 찬반 구도가 아니라 학습 데이터의 경계와 단계별 규칙을 어디에 두느냐의 문제에 가깝다.

4. 독일 GEMA vs OpenAI 판결이 보여 준 강경한 기준

독일 뮌헨 지방법원은 GEMA vs OpenAI 사건에서 노래 가사를 학습한 언어모델의 메모라이제이션을 저작권법상 복제로 인정했다. 간단한 프롬프트만으로 가사 전체가 원문과 거의 같은 형태로 출력되는 상황을 근거로, 모델 내부에 가사가 재현 가능한 상태로 저장돼 있다고 본 것이다. 또한 이런 출력을 이용자에게 제공하는 행위를 공중송신으로 보며, 학습 단계와 출력 단계 모두 저작권 침해 구조 안에 넣었다. 텍스트·데이터 마이닝 예외는 분석을 위한 일시적 사용에만 해당할 뿐, 영구적 메모라이제이션과 재현까지는 정당화하지 못한다고 선을 그었다.

이 판결은 유럽에서 처음으로 메모라이제이션 자체를 정면에 세운 사례라는 점에서 상징성이 크다. 한국의 AI 기본법이 학습 데이터와 저작권 문제를 향후 논의로 미루고 있는 것과 달리, 독일 법원은 기존 저작권법 틀 안에서 강력한 기준을 먼저 제시한 셈이다. 물론 1심 단계라 상급심에서 결론이 바뀔 여지는 남아 있다. 그럼에도 “노래 가사처럼 별도 시장이 있는 텍스트를 무단으로 학습하고, 사실상 원문을 재현하게 하는 것은 허용되지 않는다”는 메시지는 이미 국제 논의의 참고선이 되고 있다.

한국 입장에서 보면 이 판결은 일종의 거울 역할을 한다. 자국 기본법은 산업 진흥과 안전 프레임만 먼저 세워 놓은 상황에서, 주요 교역 상대국 중 하나인 독일이 저작권 측면에서 강경한 해석을 시도했기 때문이다. 앞으로 한국 기업이 유럽 시장에 서비스를 제공할 경우, 독일식 기준을 염두에 두고 학습 데이터 관리와 출력 필터링을 설계해야 할 가능성이 크다. AI 기본법과는 별도로 저작권법과 판례 수준에서 더 촘촘한 대응이 필요하다는 신호이기도 하다.

독일 GEMA 판결은 한국 AI 기본법이 비워 둔 학습 데이터 규범의 한 가능성을, 다소 급진적일 만큼 선명한 형태로 보여 준다.

5. 한국이 선택해야 할 세 가지 기준선

한국이 AI 기본법과 개별 법률을 통해 풀어야 할 과제는 결국 기준선을 어디에 긋느냐의 문제다. 첫째 기준선은 학습 데이터 공개 범위다. 어떤 수준까지 “이 모델은 어떤 데이터로 학습됐다”는 정보를 공개하게 할 것인지, 전면 공개와 영업비밀 보호 사이의 현실적인 중간 지점을 찾아야 한다. 둘째 기준선은 옵트아웃 권리다. 창작자가 자신의 작품을 특정 모델의 학습에서 배제해 달라고 요구할 수 있는지, 그리고 그 절차를 얼마나 실효성 있게 설계할 것인지가 관건이다.

셋째 기준선은 보상 구조다. 모든 학습에 일괄적인 라이선스 비용을 매길 것인지, 상업적 활용과 비영리 연구를 구분할 것인지, 혹은 일정 규모 이상의 서비스에만 집단 보상 구조를 적용할 것인지 선택해야 한다. 지나치게 복잡한 보상 체계는 사실상 작동하지 않겠지만, 아무런 구조도 마련하지 않으면 “무임승차” 논란이 계속될 수밖에 없다. 현실적으로는 고가치 텍스트와 대규모 상업 서비스부터 단계적으로 보상 구조를 도입하는 방식이 유력하게 거론된다.

이 세 가지 기준선을 어떻게 조합하느냐에 따라 한국형 AI 규범의 얼굴이 결정된다. AI 기본법 시행령은 지금 그 초안을 그리는 단계에 있고, 국회에서도 학습 데이터 공개 의무를 명시하려는 개정 논의가 이어지고 있다. 결국 선택은 “창작자와 기술 가운데 어느 한쪽을 희생할 것인가”가 아니라, “어떤 방식으로 둘의 투자 유인을 동시에 유지할 것인가”에 가깝다. 그 과정에서 독일과 미국, 영국의 서로 다른 판례는 중요한 참고 자료가 된다.

데이터 공개, 옵트아웃, 보상 구조라는 세 기준선을 어디에 긋느냐가 한국형 AI 규범의 실제 모습을 결정할 것이다.

6. 창작자 보호와 기술 혁신이 공존하려면

AI 기본법을 둘러싼 논쟁은 앞으로 더 치열해질 가능성이 크다. 생성형 AI의 품질이 높아질수록, 창작자의 작품이 학습에 쓰이는 비중과 영향력도 커지기 때문이다. 기본법이 산업과 행정의 틀을 먼저 세웠다면, 이제는 저작권법과 개별 규제, 업계 자율 가이드라인을 통해 학습 데이터와 보상의 빈칸을 채워야 한다. 이 과정에서 어느 한쪽의 목소리만 크게 반영되면, 규범은 금방 균형을 잃고 시장은 왜곡되기 쉽다.

창작자 보호와 기술 혁신을 동시에 유지하는 길은 단기적으로는 불편하고 비용이 드는 길일 수밖에 없다. 그러나 이 균형을 외면한 채 한쪽만 택하면, 결국 다른 쪽의 기반이 무너져 장기적으로는 모두가 손해를 볼 가능성이 크다. 한국 AI 기본법과 그 하위 규범이 앞으로 어떤 방향으로 수정·보완되는지는, 단순한 법제도 이슈를 넘어 콘텐츠 산업과 기술 산업의 미래를 가르는 분기점이 될 것이다. 지금 필요한 것은 감정적인 찬반이 아니라, 데이터와 사례에 기반한 차분한 설계다.

독일 GEMA vs OpenAI 판결처럼 강경한 해석도 있고, 미국 일부 소송처럼 AI 학습 자체는 폭넓게 허용하려는 접근도 존재한다. 한국은 이 사이에서 자국의 산업 구조, 창작 생태계, 국제 규범 환경을 모두 고려한 선택을 해야 한다. 그 선택이 어떠한 형태를 취하든, 창작자의 권리와 기술 발전의 토양을 동시에 지키려는 노력만은 공통분모로 남아야 한다. AI 시대의 저작권 논의는 이제 시작 단계에 불과하다.

AI 기본법을 둘러싼 논쟁은 결국 창작자와 기술 모두를 지키는 느리고 복잡한 균형 설계를 피할 수 없다는 사실을 확인하게 만든다.

참고·출처

이 글은 과학기술정보통신부가 공개한 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 시행령」 제정안 입법예고 자료와, AI 기본법의 개요를 정리한 각종 해설 글을 바탕으로 한국형 AI 규범의 구조를 정리했다. 2025년 5월 서울 목동 방송회관에서 열린 15개 창작자 단체 공동 기자회견과 관련 보도, 법조·언론계에서 제기된 AI 학습 데이터 공개 의무와 보상 구조에 대한 개정 요구를 함께 검토했다. 독일 뮌헨 지방법원의 GEMA vs OpenAI 1심 판결과 이를 분석한 유럽 법률 전문 매체, 국제 로펌 뉴스레터를 참고해 메모라이제이션과 텍스트·데이터 마이닝 예외에 대한 독일식 접근을 소개했다. 미국과 영국에서 진행된 AI 학습 관련 소송 사례와 국내 연구기관의 AI 윤리·저작권 보고서를 통해, 한국이 향후 선택할 수 있는 규범 경로의 폭과 한계를 비교했다.