알림마당

인권센터 소식

[국가인권위원회] 인공지능 시대, 인권의 나침반이 되다

  • 이은지
  • 2026-02-24
  • 16


국가인권위원회의 인공지능 인권 보호 여정

 


인공지능은 더 이상 과거의 정보기술처럼 인간의 명령을 단순히 수행하는 도구에 머물지 않는다. 채용 여부를 가르고, 복지 수급 대상을 선별하며, 범죄 위험을 예측하는 등 개인의 삶에 중대한 결정을 좌우하는 기술로 빠르게 확산되고 있다. 한 번 사회 전반에 도입된 판단 구조는 되돌리기 어렵다는 점에서, 지금 이 시점에 어떤 기준을 세우느냐가 중요하다.

 

Ethical AI

 

 

왜 인공지능은 이전 기술과 다르게
인권기반 접근이 필요한가

 

인공지능은 방대한 데이터를 학습해 스스로 판단하고 예측하지만, 그 과정은 전문가조차 설명하기 어려운 ‘블랙박스’ 구조를 지닌다. 이 구조는 단순한 기술적 한계를 넘어, 인권의 새로운 위험을 만들어 낸다.

 

차별의 복제
인공지능이 학습하는 데이터에는 우리 사회에 이미 존재하는 편견과 차별이 담겨 있다. 이러한 데이터에 기반한 자동화된 판단은 특정 집단에 대한 차별을 반복하거나 더욱 증폭시킬 수 있다.

 

책임의 공백
인공지능에 의해 권리가 침해되더라도, 피해 당사자는 왜 그런 결과가 나왔는지 알기 어렵다. 누구에게 책임을 물어야 하는지조차 불분명한 상황은 실질적인 권리구제를 어렵게 만든다.

 

사생활 침해와 인간 존엄의 위협
딥페이크를 활용한 성범죄, 얼굴인식 기술을 통한 광범위한 감시와 통제는 개인의 사생활을 침해할 뿐 아니라 인간의 존엄과 가치를 근본적으로 흔들 수 있다. 인공지능 기술은 이미 사회 곳곳에 스며들고 있지만, 이러한 위험을 어떻게 관리하고 통제할 것인지에 대한 사회적 합의와 제도적 준비는 아직 충분히 마련되지 않았다. 바로 이 지점에서 인공지능에 대한 인권기반 접근이 요구된다.

 

 

위험을 관리하는 안전장치는
기술에 대한 사회적 신뢰를 만들었다

 

BIAS자동차는 한때 ‘위험한 기술’의 상징이었다. 빠른 이동이라는 편리함은 곧 사고와 사망이라는 위험으로 이어졌고, 사회는 기술의 확산 자체를 고민하기 시작했다. 자동차 산업을 지속 가능하게 만든 것은 위험을 전제로 이를 관리하기 위한 안전 기준과 규제의 도입이었다.

 

안전벨트와 에어백 같은 기술적 장치뿐 아니라, 제한속도 설정, 음주운전 금지, 면허 제도, 교통사고 책임 규율 등은 자동차로 인한 위험을 사회적으로 관리하기 위한 제도적 장치였다. 이는 사고를 완전히 없애기 위한 규제가 아니라, 위험을 전제로 피해를 줄이고 책임을 명확히 하기 위한 규칙이었다.

 

이러한 안전 기준과 규제는 기술 발전을 가로막지 않았다. 오히려 기술 개발의 방향을 바꾸고 사회적 신뢰를 축적했다. 제조사는 안전 기술을 핵심 경쟁력으로 발전시켰고, 이용자는 법과 제도가 위험을 관리하고 있다는 신뢰 속에서 자동차를 일상적인 기술로 받아들일 수 있었다. 위험을 인정하고 규율하는 법과 제도가 자동차를 사회에 정착시킨 토대였던 것이다.

 

인공지능 역시 비슷한 갈림길에 서 있다. 위험을 외면한 채 기술 확산을 서두를 것인지, 아니면 위험을 인정하고 규율함으로써 기술을 사회에 안전하게 정착시킬 것인지의 선택이다.

 

 

국가인권위원회의
인공지능 인권 보호 여정

 

국가인권위원회(이하 ‘인권위’)는 인공지능 논의의 초기 단계부터 일관되게, 인공지능으로 인해 영향을 받는 사람의 권리와 존엄을 기준으로 삼아왔다. 인공지능이 사회 전반으로 확산될수록, 인권 보호 역시 선언이 아니라 제도와 절차로 구체화 되어야 한다는 문제의식에서다.

 

2020년, 인권을 법에 새기다

인권위는 「인공지능산업 진흥에 관한 법률안」에 대해, 인권 및 인간 존엄성 존중 원칙, 차별 방지 원칙을 법에 명시할 필요가 있다는 의견을 표명했다. 인권 보호 필요성이 반영되어, 2023년 2월 법안 소위에 상정된 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안」(이하 ‘인공지능 법률안’)에는 ‘국민의 권익과 존엄성 보호’가 법의 목적에 포함되었고, 고위험 인공지능과 관련한 사업자의 책무 등 인공지능 윤리 및 신뢰성 확보를 위한 규정이 마련되었다.

 

2023년, 선언을 넘어 실질적 권리를 요구하다

인권위는 ‘인공지능 법률안’에 대해, 우선허용·사후구제 원칙의 삭제, 이용자의 권리 명시와 피해구제 절차 마련, 인권영향평가 도입, 고위험 인공지능 영역 확대 등의 필요성을 강조했다. 인권 보호 필요성이 반영되어, 현행 인공지능기본법에서 우선허용·사후구제 원칙이 삭제되고, 교육 분야에서의 학생 평가가 고영향 인공지능에 포함되었으며, 사실조사와 고영향 인공지능 기본권 영향평가에 관한 노력 의무 규정이 신설되었다.

 

2025년 8월, 안전장치를 지키다

인공지능사업자의 책임과 의무를 유예하려는 인공지능기본법 개정안에 대해, 인권위는 혁신과 안전의 균형을 위해 신중한 검토가 필요하다는 우려를 표명했다. 기술 발전을 이유로 최소한의 안전장치를 늦춰서는 안 된다는 판단이었다.

 

2025년 12월, 실행을 위한 의견을 제시하다

인권위는 인공지능기본법 시행령안에 대해, 구직자와 환자 등 인공지능의 영향을 받는 사람에 대한 보호 공백 해소, 고영향 인공지능 영역의 구체화, 기본권 영향평가의 실효성 확보, 사실조사 예외 규정 삭제, 인권 전문가 참여 확대 등이 필요하다는 의견을 제시했다. 시행령에는 사실조사 예외 규정이 삭제되고 국가인공지능위원회 분과위원회 등에 전문가 위촉 범위가 확대되었지만, 규제보다는 진흥에 무게를 둔 구조 속에서 한계 역시 남았다.

 

 

HUMAN-CENTERED AI

 

인공지능 시대,
인권 보호의 여정은 계속된다

 

2026년 1월 22일, 인공지능기본법이 본격 시행되었다. 법의 목적에 ‘국민의 권익과 존엄성 보호’가 포함되고, 인공지능의 투명성·신뢰성·안전성 확보를 통해 인권을 보호하기 위한 최소한의 안전장치가 마련된 것은 중요한 진전이다.

 

그러나 인공지능이 개인의 삶과 인권에 미치는 영향의 크기를 고려할 때, 아직 보완해야 할 과제는 남아 있다. 구직자와 환자 등 인공지능의 영향을 받는 사람의 권리를 실질적으로 보장하고, 피해가 발생했을 때 이를 구제할 수 있는 절차를 마련해야 한다. 특히 공공영역에서 인공지능이 국민의 권리와 의무에 미치는 영향이 크다는 점을 고려해, 공공기관 인공지능 인권영향평가 우선 도입 등 제도적 공백을 지속적으로 메워 나가야 한다.

 

인공지능 시대에도
인권의 기준을 함께 살피는 일,
그 여정은 지금도 계속되고 있다

 

 

글_ 안진현 ㅣ 국가인권위원회 인권정책과




자세한 내용은 아래 링크를 참고해주세요.    


https://www.humanrights.go.kr/webzine/webzineListAndDetail?issueNo=7611794&boardNo=7611797