*본 글은 스타트업얼라이언스가 2026년 4월 발행한 이슈페이퍼 「AI기본법 ‘표시의무’, 현장은 무엇을 고민하는가」(이슈페이퍼 2026-03호, 저자: 정주연 선임전문위원)를 참고하여 작성하였습니다.
2026년 1월, 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 AI 기본법)이 본격 시행됐습니다. 딥페이크와 허위정보 확산을 막고, 이용자의 알 권리를 보장하겠다는 취지로 도입된 이 법에 대해 산업계도 대체적으로 공감합니다. 방향 자체를 반대하는 목소리는 많지 않습니다.
그런데 시행 이후 현장 분위기는 묘하게 뒤숭숭합니다. AI 스타트업 실무자들과 이야기를 나눠보면 “도대체 우리 서비스가 해당되는 건지 안 되는 건지 모르겠다”, “법무팀에 물어봐도 명확한 답이 안 나온다”는 이야기가 반복됩니다. 단순히 준비 시간이 부족해서가 아닙니다. 제도 설계 자체에 아직 정리되지 않은 질문들이 남아 있기 때문입니다.
스타트업얼라이언스가 발행한 이슈페이퍼는 그 질문들을 세 가지 큰 쟁점으로 정리했습니다. 이 글에서는 그 내용을 바탕으로, AI 서비스를 직접 만들고 운영하는 실무자 관점에서 하나씩 짚어보겠습니다.

쟁점 1. “‘AI 생성물’이 뭔지 모르겠다” — 범위 설정의 문제
AI 기본법의 핵심 조항 중 하나는 생성형 AI 표시의무입니다. AI가 생성·편집·가공한 콘텐츠임을 이용자에게 명확히 알려야 한다는 것인데, 막상 실무에서는 “그래서 우리 서비스가 해당되나요?”라는 질문부터 막힙니다.
현실에서 AI는 순수하게 혼자 콘텐츠를 만드는 경우보다, 사람과 협업하는 방식으로 훨씬 많이 쓰입니다. 예를 들어볼까요?
- 마케터가 초안을 쓰고, AI가 문장을 다듬는 경우
- 디자이너가 전체 구성을 기획하고, AI가 배경 이미지 일부만 보완하는 경우
- 전문가가 작성한 보고서를 AI가 요약·정리하는 경우

이런 경우들이 모두 ‘AI 생성물’에 해당하는 걸까요? 법 조문만 보면 “생성·편집·가공한 콘텐츠”라고 되어 있는데, 현장에서는 그 경계선이 어디인지 해석하기가 쉽지 않습니다.
보조 기능과 핵심 기능을 같은 잣대로 볼 수 있을까요?
더 근본적인 질문도 있습니다. 생성형 AI가 서비스의 핵심이 아니라, 문장 교정이나 추천처럼 보조 기능으로만 쓰인 경우에도 동일한 규제가 적용되어야 할까요?
이슈페이퍼는 이 지점을 날카롭게 짚습니다. 딥페이크처럼 기만 목적이 있는 고위험 활용과, 카메라 필터 앱이나 AI 돌봄 서비스처럼 위험성이 낮은 공익적 활용을 같은 범주로 묶어서 규제하는 것이 과연 적절한가 하는 것입니다. 규제의 초점이 흐려질 수 있다는 우려는 타당합니다.
STT·TTS·번역은 ‘생성’인가요?
특히 현장에서 혼란이 가장 큰 부분은 이른바 ‘변환형 기술’입니다. 음성을 텍스트로 바꾸는 STT, 텍스트를 음성으로 바꾸는 TTS, 기계 번역, OCR 같은 기능들이 여기에 해당합니다.
이 기능들은 기술적으로 딥러닝을 활용하지만, 새로운 내용을 창작하는 것이 아니라 기존 정보를 다른 형식으로 변환하는 것에 가깝습니다. 시각장애인을 위해 책을 읽어주는 TTS 기능과, 특정 인물의 목소리를 합성해 실제로 하지 않은 말을 만드는 딥페이크는 위험 수준 자체가 다릅니다. 이 둘을 동일한 규율 체계로 다루는 것이 맞는가 — 이 질문에 아직 명확한 답이 없습니다.
추천 시스템도 마찬가지입니다. OTT 서비스의 콘텐츠 추천이나 쇼핑몰의 상품 추천은 새로운 콘텐츠를 만드는 것이 아니라, 기존 콘텐츠의 순서를 조정하는 것입니다. 이것까지 표시의무 대상에 포함시키는 건 규제 범위를 과도하게 넓히는 것 아닐까요?
국제표준(ISO) 논의에서는 이미 생성형 AI의 범위를 ‘새로운 콘텐츠를 생성하는 경우’로 한정하는 방향이 확인되고 있습니다. 우리 제도도 ‘생성’과 ‘변환·배열’을 구분하는 명확한 기준을 마련할 필요가 있습니다.
쟁점 2. “표시하라는데, 기술적으로 어떻게?” — 실효성 문제
설령 범위 문제가 해결된다 해도, 다음 질문이 기다리고 있습니다. “그러면 어떻게 표시하면 되나요?”
텍스트에는 워터마크가 안 붙습니다
이미지나 영상은 화면에 워터마크를 삽입하는 방식이 가능합니다. 하지만 텍스트는 다릅니다. 플랫폼에서 ‘AI 생성’이라는 안내 문구를 함께 제공하더라도, 이용자가 그 내용을 복사해서 SNS나 다른 사이트에 올리는 순간 표시는 사라집니다. 이미지와 영상도 캡처, 크롭, 재편집, 재업로드 과정에서 워터마크가 제거될 수 있어 표시의 지속성을 완전히 보장하기는 어렵습니다.
그렇다면 AI 사업자가 최초 제공 단계에서 표시 의무를 다했다면, 이후 이용자가 퍼뜨린 것까지 책임져야 하는 걸까요? 현재로서는 이 경계가 명확하지 않습니다.
‘경고 피로’ 현상도 고려해야 합니다
또 다른 문제는 표시 자체의 효과입니다. AI가 관여한 모든 콘텐츠에 반복적으로 표시를 붙이면, 이용자들이 이를 배경 정보처럼 무감각하게 받아들이는 ‘경고 피로'(Warning Fatigue) 현상이 나타날 수 있습니다. 그 결과, 정작 진짜 위험한 딥페이크나 허위정보에 대한 경고의 주목도가 오히려 낮아질 수 있습니다. 표시의무가 역효과를 낳을 수 있다는 것입니다.
C2PA 같은 기술 기반 표시, 인정받을 수 있을까요?
글로벌 차원에서는 C2PA(Coalition for Content Provenance and Authenticity) 같은 메타데이터 기반의 콘텐츠 출처 증명 기술이 빠르게 확산되고 있습니다. 콘텐츠의 생성·편집 이력을 기술적으로 추적하는 방식인데, AI 기본법 시행령도 ‘기계가 판독할 수 있는 방법’에 의한 표시를 허용하고 있습니다.
문제는, 현행 규정이 이용자가 명확히 인식할 수 있는 표시를 함께 요구하고 있어서, 메타데이터 방식만으로 의무를 충족할 수 있는지 해석이 불분명하다는 것입니다. 이 불확실성 때문에 기업들은 시각적 워터마크와 안내 문구를 병행하는 보수적인 방식을 선택하게 되고, 결과적으로 다양한 기술적 방식의 활용이 위축될 가능성이 있습니다.
특히 스타트업에게 특정 글로벌 표준 채택을 사실상 강제하는 방향은 추가적인 비용 부담과 기술적 진입 장벽으로 작용할 수 있습니다. 기술 중립성을 유지하면서 업계가 서비스 특성에 맞게 표시 방식을 자율적으로 선택할 수 있도록 하는 유연한 설계가 필요합니다.

쟁점 3. “우리 회사가 API 쓰는 건데, 우리가 표시해야 하나요?” — 책임 주체 문제
세 번째 쟁점은 현장에서 가장 실질적인 혼란을 일으키는 부분입니다.
오늘날 AI 서비스는 단일 기업이 처음부터 끝까지 담당하는 경우보다, 여러 주체가 연결된 구조로 운영되는 경우가 훨씬 많습니다. AI 모델을 개발하는 기업이 있고, 그 모델을 API 형태로 제공하는 기업이 있고, 그것을 활용해 최종 서비스를 만드는 기업이 있고, 그 서비스를 시민에게 제공하는 공공기관이 있습니다. 이른바 B2B2C, B2B2G 구조입니다.
모델 개발사 vs. 최종 서비스 제공자, 누가 책임지나요?
AI 기본법은 표시의무의 주체를 ‘AI 사업자’라고 규정하고 있습니다. 그런데 AI 모델 개발사와 최종 서비스를 이용자에게 제공하는 사업자가 다른 경우, 1차적 책임은 누구에게 있는 걸까요?
예를 들어, 지자체가 민간 기업의 AI 기술을 활용해 시민에게 챗봇 서비스를 제공하는 경우, 표시 의무는 기술을 제공한 민간 기업에 있을까요, 서비스를 운영하는 지자체에 있을까요? 현재로서는 이에 대한 명확한 가이드라인이 없습니다.
이 불확실성은 계약 단계에서도 문제가 됩니다. 책임 소재가 불분명하면 기업들은 가장 보수적인 방식을 선택하게 되고, 이는 서비스 기획 단계에서의 위축으로 이어질 수 있습니다.
글로벌 서비스라면 어떻게 하나요?
글로벌 서비스를 운영하는 기업의 경우 문제는 더 복잡해집니다. 한국 이용자에게만 별도의 표시를 적용해야 하는지, IP 기반으로 이용자를 구분하는 방식이 현실적으로 가능한지, 국가별 규제 차이를 어떻게 처리해야 하는지에 대한 구체적인 기준이 아직 충분히 제시되지 않은 상황입니다.
적용 기준이 명확하지 않으면 기업은 규제 리스크를 최소화하기 위해 특정 기능의 국내 출시를 미루거나, 아예 국내 서비스 범위를 제한하는 선택을 하게 됩니다. 이는 결국 국내 이용자들이 해외 이용자보다 덜 좋은 서비스를 받게 되는 역설적인 결과로 이어질 수 있습니다.
그래서 어떻게 해야 할까요?
실효성 있는 표시의무를 위한 방향
이슈페이퍼는 표시의무의 필요성을 전제로 하되, 다음과 같은 방향으로 제도 개선이 이루어져야 한다고 제언합니다.
1) 위험도 기반 차등 표시 체계로의 전환
지금처럼 ‘AI를 사용했는가’만을 기준으로 일괄 적용하는 방식보다는, 실질적인 피해 가능성에 비례한 규제 강도를 설계하는 것이 합리적입니다.
딥페이크 영상, 선거·금융 관련 허위정보 생성, 기만 목적이 명확한 콘텐츠 등 고위험 영역에는 강력한 표시를 의무화하는 것이 타당합니다. 반면 문법 교정, 추천 알고리즘, 기만 목적 없는 유희·공익 서비스, 취약계층 지원 목적의 AI 서비스 등 저위험 영역에는 동일한 강도의 규제를 적용하는 것이 과도할 수 있습니다. EU AI Act가 채택한 리스크 기반 접근이 참고가 될 수 있습니다.
2) 기술 중립적 접근으로의 전환
시각적 워터마크나 팝업 같은 ‘눈에 보이는 마크’ 중심의 설계에서 벗어나, 다양한 기술적 표시 방식을 폭넓게 인정하는 방향이 필요합니다. 비가시적 워터마킹이나 메타데이터 기반 방식을 의무화하기보다는, 선택 가능한 수단으로 인정하고 업계가 서비스 특성에 맞게 자율적으로 선택할 수 있도록 해야 합니다.
3) B2B2C·B2B2G 구조에서의 책임 기준 명확화
최종 이용자와 직접적인 접점을 형성하는 사업자를 중심으로 책임을 설정하되, 모델 개발사 등 상위 주체의 역할도 함께 고려하는 유연한 책임 구조가 필요합니다. 공공 목적의 AI 서비스에 대해서는 별도의 기준 마련도 검토할 필요가 있습니다.
4) 중복 규제 정비와 단일 해석 창구 마련
현재 기업들은 AI 기본법 외에도 정보통신망법 개정 논의, 부처별 가이드라인 등 복수의 규제를 동시에 고려해야 합니다. 어느 규정을 우선 적용해야 하는지, 부처별 가이드라인이 충돌할 경우 어떻게 판단해야 하는지 기준이 부족한 상황입니다. 규제 간 정합성을 정비하고, 기업이 참고할 수 있는 ‘단일 해석 창구(One-Stop 체계)’를 마련하는 것이 시급합니다.
5) 글로벌 정합성 확보와 ‘갈라파고스 규제’ 방지
AI 산업은 본질적으로 글로벌 시장을 전제로 합니다. 국내에만 독자적인 규제가 과도하게 적용될 경우, 국내 기업이 해외 출시를 우선 고려하거나 글로벌 투자자들이 한국 시장을 회피하는 상황이 발생할 수 있습니다. EU AI Act, 미국 투명성 관련 입법 등 주요국의 규제 동향과의 정합성을 사전에 충분히 검토하는 것이 필요합니다.
‘규제의 취지’를 살리려면 정교한 설계가 필요합니다
표시의무의 취지에 반대하는 사람은 많지 않습니다. 문제는 그 취지를 현장에서 제대로 구현할 수 있는 설계가 아직 충분하지 않다는 것입니다.
이슈페이퍼가 지적하듯, 스타트업에게 ‘시간’과 ‘예측 가능성’은 생존과 직결되는 요소입니다. 규제의 존재 자체보다도 적용 범위를 예측하기 어려운 불확실성이 더 큰 리스크로 작용합니다. 혁신을 ‘도전’이 아닌 ‘회피’의 영역으로 밀어넣는 것은 규제의 의도와 정반대의 결과입니다.
이용자 보호와 산업 경쟁력은 상충되는 목표가 아닙니다. 정교한 제도 설계를 통해 함께 달성해야 할 과제입니다. 지금 필요한 것은 규제의 확대나 축소가 아니라, 목적에 부합하는 방식으로의 재설계입니다.
참고: 스타트업얼라이언스, 「AI기본법 ‘표시의무’, 현장은 무엇을 고민하는가」, 이슈페이퍼 2026-03호, 정주연 선임전문위원, 2026.4.28. 본 글의 내용은 해당 이슈페이퍼를 참고·재구성하였으며, 스타트업얼라이언스의 공식 입장이 아닙니다.
![]()

![[바로 써먹는 인사이트] 성과를 내는 사람들의 AI 활용법](https://mobiinsidecontent.s3.ap-northeast-2.amazonaws.com/kr/wp-content/uploads/2026/05/07183606/260508_AI-%ED%99%9C%EC%9A%A9-%EA%B0%80%EC%9D%B4%EB%93%9C_01-218x150.jpg)

