요즘 업계에서 가장 현실적으로 “바로 준비해야 하는 이슈” 하나를 잡아보겠습니다. 바로 **국내 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’의 시행(2026. 1. 22.)**입니다.
이 글은 2026년 시행되는 AI 기본법이 모바일·AI 서비스 운영자에게 어떤 영향을 주는지 핵심만 정리한 글입니다.
이 이슈가 중요한 이유는 간단합니다. 이제 AI는 “기능”이 아니라 서비스 신뢰(Trust)와 컴플라이언스(Compliance) 영역으로 들어왔고, 특히 모바일 앱/플랫폼은 사용자 접점(UI/UX)에서 고지·표시·설명·예외 처리를 해야 할 일이 늘어나기 때문입니다. (법률 자문이 필요한 사안은 전문가 상담을 권장드립니다.)
왜 지금 이슈인가: 시행일이 ‘정해진 일정’이기 때문
-
AI 기본법 시행일: 2026년 1월 22일
-
시행령(대통령령) 제정안 입법예고: 2025년 11월 12일 ~ 2025년 12월 22일(입법예고안 기준)
즉, “언젠가 준비”가 아니라 출시·운영 중인 서비스도 영향권에 들어올 수 있는 타이밍입니다. 특히 아래에 해당하면 더 빨리 점검이 필요합니다.
-
앱에 챗봇/요약/추천/검색/자동응답 기능이 있다
-
이미지·영상·음성 등 **생성형 기능(콘텐츠 생성/편집)**이 있다
-
광고/커머스에서 개인화·자동의사결정이 비즈니스 성과에 직결된다
-
B2B로 AI 기능을 SDK/API로 제공한다

핵심은 3가지: 투명성, 안전성, 고영향 AI
시행령 입법예고안에서 특히 눈에 띄는 포인트는 아래 3축입니다. (세부 문구/요건은 최종 확정본에서 달라질 수 있습니다.)
1) “AI 썼는지” 이용자가 알 수 있게: 투명성(고지/표시)
시행령 입법예고안은 투명성 확보 의무 이행 방법으로,
-
계약서, 이용약관 등에 기재하는 방식 등으로 사전고지 가능
-
주된 이용자의 연령, 신체적 조건 등을 고려해 고지/표시
-
내부 업무 용도만 사용하는 경우 등에는 투명성 의무를 적용 제외(예외)
같은 방향을 제시합니다.
모바일 서비스 관점에서 이건 “약관 한 줄 추가”로 끝나지 않는 경우가 많습니다. 실제로는 다음이 함께 따라옵니다.
-
온보딩/설정 화면에서 AI 기능 안내 UI
-
생성 결과물에 대한 표시(라벨/배지/문구/메타데이터 등)
-
고객센터/FAQ에 “AI가 개입하는 범위” 명확화
2) 규모가 큰 AI는 더 엄격하게: 안전성(대상 기준 제시)
시행령 입법예고안은 안전성 확보 의무의 대상이 될 수 있는 AI 시스템을 “학습에 사용된 누적 연산량 10의 26승 FLOPs 이상” 등으로 제시하고, 기술 발전/위험도 등을 고려한 고시 기준과 연동하는 방향을 담고 있습니다.
포인트는 여기입니다.
“우리 앱은 모델을 직접 학습하지 않는데요?” → 그래도 외부 모델(클라우드 API)로 서비스한다면, 공급망/책임 구조/사고 대응 체계는 요구받을 수 있습니다. 특히 B2B·플랫폼일수록 벤더 관리가 핵심이 됩니다.
3) 사람의 권리·안전에 영향이면: 고영향 AI(판단/확인 프로세스)
시행령 입법예고안은 고영향 인공지능 해당 여부를 판단할 때,
-
생명·신체 안전 및 기본권에 미칠 수 있는 위험의 영향·중대성·빈도 등을 고려
-
고영향 해당 여부 확인 요청에 대해 30일 이내 회신, 필요 시 1회 연장
같은 절차적 요소를 제시합니다.
모바일 서비스에서 “고영향” 논점이 생기기 쉬운 영역은 예를 들면,
-
금융/대출/보험, 고용/채용, 교육/평가, 의료/건강, 공공/행정, 신원·본인확인 등
사용자의 기회/권리/안전에 영향을 줄 수 있는 영역입니다. (해당 여부는 실제 서비스 설계와 운영 방식에 따라 달라질 수 있습니다.)
(실전) 앱·서비스 운영자가 오늘 당장 할 6가지 체크리스트
아래는 “법조문 암기”가 아니라 운영체계 관점에서 바로 실행 가능한 항목으로 정리했습니다.
-
AI 기능 인벤토리 만들기 (1시간이면 시작 가능)
-
어떤 화면/기능에서 AI가 개입하는지
-
입력 데이터(텍스트/이미지/음성/행동로그)와 출력 결과(추천/생성/분류)를 표로 정리
-
내부 모델인지, 외부 API인지, 혼합인지 구분
-
-
고지(Notice) UX를 제품 요구사항(PRD)로 격상
-
“약관에만” 넣지 말고, 사용자가 실제로 마주치는 화면에 배치
-
청소년/고령층 등 주요 이용자 특성이 있다면 가독성 기준도 함께
-
-
표시(Labeling)는 ‘디자인’이 아니라 ‘정책’
-
생성 결과물(텍스트/이미지/영상/음성)에 어떤 방식으로 표시할지
-
공유/다운로드/외부 전송 시 표시 유지 여부
-
고객 문의가 가장 많이 발생하는 지점을 기준으로 문구 표준화
-
-
고영향 가능성 사전진단(리스크 맵) 작성
-
“우리 서비스가 사용자 권리/안전에 영향을 줄 수 있는 의사결정에 쓰이는가?”
-
자동화 수준이 높을수록(자동 승인/차단/등급) 설명 가능성과 사람 개입(휴먼 오버사이트) 설계가 중요
-
-
로그·문서화·장애 대응 플랜 구축
-
프롬프트/출력/모델 버전/정책 버전 등 운영에 필요한 최소 로그
-
모델 업데이트 시 변경점(릴리즈 노트) 관리
-
사고(환각/편향/유해 콘텐츠) 발생 시 CS·법무·개발 핫라인
-
-
벤더/외부 모델 계약 점검
-
장애/품질/책임 범위, 데이터 처리, 재학습 여부
-
“표시/고지 기능”을 공급자가 제공하는지, 우리 쪽에서 구현해야 하는지 분리
-

온디바이스 AI가 ‘대안’으로 떠오르는 이유, 그리고 오해 1가지
요즘 모바일에서 뜨는 키워드가 온디바이스 AI입니다. 서버/클라우드를 거치지 않고 기기 자체에서 AI 기능을 구현하는 방향이죠.
-
지연시간(Latency) 감소로 체감 UX 개선
-
네트워크 의존도 감소
-
민감 데이터가 외부로 나가지 않아 프라이버시·보안 측면 이점(구현 방식에 따라 다름)
다만 오해도 많습니다.
온디바이스로 돌린다고 해서 ‘고지/표시’가 필요 없어지는 건 아닙니다. 오히려 사용자 입장에선 “내 폰 안에서 무슨 일이 일어나는지” 더 불투명해질 수 있어, 제품 신뢰 관점에서 투명성이 더 중요해질 수도 있습니다.
글로벌 서비스라면: EU AI Act 일정도 같이 체크
해외 사용자/해외 고객을 상대한다면, 국내 AI 기본법만 볼 수는 없습니다. 예컨대 EU는 AI Act를 단계적으로 적용하며, “일반 조항/금지 규정 적용(2025. 2. 2)”, “범용 AI 관련 규정 적용 및 거버넌스(2025. 8. 2)” 등 단계적 타임라인을 제시하고, 전체 적용은 2027년 8월 2일을 목표로 안내하고 있습니다.
국내외 규제가 서로 완전히 같진 않지만, 결론은 비슷합니다.
AI는 ‘기능 출시’ 이후에도 설명가능성, 안전성, 책임 구조를 제품 운영에 내장해야 한다는 방향입니다.

마무리: “규제 대응”이 아니라 “신뢰 설계”로 접근하면 속도가 난다
AI 기본법 이슈를 단순히 부담으로만 보면 체크리스트가 끝이 없습니다. 하지만 반대로,
-
고지/표시를 UX 품질로 만들고
-
리스크 진단과 사고 대응을 운영 역량으로 만들면
신뢰가 곧 경쟁력이 됩니다.