인권운동사랑방 후원하기

인권으로 읽는 세상

AI, 통제할 수 없는 미래가 아닌 지금 여기 우리의 문제로

산업 성장만을 향한 속도전을 멈추고 사회적 기준을 세우자

지난 1월 22일 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」이 시행되었다. 이재명 정부는 AI를 잠재성장률 하락을 돌파하고 국가 경쟁력을 회복할 ‘유일한 해법’으로 규정하며 재정과 제도로 전방위적인 ‘밀어주기’를 이어오고 있다. 정부는 2026년 예산안을 ‘AI 시대를 여는 첫 예산’이라 명명하며 그중 AI 관련 예산은 전년 대비 세 배 이상 늘린 10조원 규모로 편성했고, 정부·금융권·민간기업·개인의 돈을 모아 산업을 지원하는 정책 펀드인 ‘국민성장펀드’에서 AI 분야에 6조원을 투자할 예정이라 밝혔다. 또 ‘AI 고속도로’를 말하며 데이터센터 등 인프라 구축에 속도를 내고, 모든 산업 분야에서 공공부문까지 사회 전 영역에 AI를 도입하는 대전환도 예고하였다. “규제보다는 성장과 속도에 방점을 찍어야 한다”는 국가인공지능전략위원회 부위원장의 말처럼 AI 산업의 성장만을 향해 밀어붙이는 속도전이, 과연 우리 사회에 장밋빛 미래를 가져다 줄 수 있을지 질문이 필요하다.

 

AI를 들이는 일의 세계, 사라진 책임

AI가 가장 빠르고 전면적으로 도입된 일의 세계를 살펴보자. 먼저 채용 단계에서는 공정성을 이유로 AI 도입이 확산되고 있다. 국내 대기업과 일부 공공기관은 채용 과정에서 면접 이전 단계에 AI를 활용해 지원자의 표정·말투·응답 속도·언어 사용 패턴 등을 분석하고, 그 결과를 지원자에게는 공개하지 않은 채 면접관과 채용 담당자의 참고 자료로 활용하고 있다. AI 면접 시스템은 면접관의 ‘편견’을 줄이기 위한 보조 수단으로 홍보되지만, 이 평가 기준은 과거 합격자 데이터와 기존 채용 기준을 학습한 결과라는 점에서 결코 중립적일 수 없다. 특정 억양이나 표현 방식, 자신감 있는 태도가 우수 인재의 ‘표준’으로 설정될 경우, 그와 다른 특성을 지닌 지원자들은 낮은 평가로 분류된다. 이러한 표준은 성별·연령·학력·문화적 배경 등에 대한 기존 사회의 차별적 관점을 그대로 반영하며, AI는 이를 그대로 자동화한다. AI에 의해 산출된 평가는 곧바로 탈락으로 이어지진 않더라도 면접에 영향을 미친다. 그러나 지원자의 입장에선 평가 기준과 산출 과정에 접근할 수 없어 결과에 대한 설명을 요구하거나 이의를 제기하기 어렵다. 공정을 담보할 것처럼 여겨지지만 실제로 남는 건 ‘책임 없는 선별’ 뿐이다.

노동의 배치와 수행에서도 마찬가지다. AI를 통해 노동자에 대한 통제가 이뤄지지만, 그에 따른 책임을 사용자에게 묻기 어려운 구조다. 가령 배달 플랫폼 기업 ‘배달의민족’이 2025년 4월부터 일부 지역에서 시범 운영한 라이더 전용 앱 ‘로드러너’는, 라이더가 사전에 등록한 스케줄에 따라 로그인하면 AI가 자동으로 배차시키는 방식으로 작동한다. 이 과정에서 라이더의 수락률, 시간당 배달 건수, 계획 대비 실제 운행 시간 등이 종합되어 매주 등급이 산정되며, 그에 따라 라이더가 선택 가능한 근무 시간대의 우선권이 달라진다. 그러나 어떤 기준이 어떻게 반영되는지는 공개되지 않아 라이더는 왜 불리한 시간대만 남았는지, 왜 다음 주 선택권이 제한되는지 알 수 없다. 배차를 거절하거나 예정된 스케줄을 소화하지 못할 경우 등급 하락이나 배차 지연과 같은 ‘처벌’이 뒤따르지만, 이는 점수와 배치 변화라는 ‘보이지 않는’ 방식으로 작동한다. 이처럼 AI 알고리즘은 사용자가 노동자의 근무 방식과 성과를 세밀하게 통제하면서도 그 결정의 근거와 결과에 대한 책임을 ‘알고리즘이 산정한 결과’라는 말로 회피하는 명분이 되고 있다.

AI로 인한 가장 큰 변화로 언급되는 해고 문제에서도 불안을 겪는 이들에 대한 책임은 보이지 않는다. 2023년 12월, AI 상담 서비스 도입 이후 KB국민은행 콜센터에서 대량해고가 발생했다. 이후 이어진 노동자들의 저항으로 전원 복귀가 이뤄졌지만, AI 상담이 도입되며 상담사들에게는 더 복잡하고 감정 소모가 큰 업무가 집중되었다. 상담사들은 언제든 다시 인력 조정이 될 수 있다는 불안 속에서 높아진 노동강도를 감내하거나 끝내 일을 그만둬야 했다. 정부는 AI로의 노동 전환으로 산업 경쟁력과 함께 노동자의 편의도 높아질 거라 말하지만, 이미 파다하게 퍼져있는 고용 불안에 대한 대책은 전혀 세우지 않고 있다. 최근 현대자동차에서 피지컬 AI 로봇 ‘아틀라스’의 생산 현장 투입을 발표하자 노동자들은 “합의 없이는 단 한 대도 투입 못한다”며 강력한 입장을 밝혔다. 이 장면은 노동자들이 단순히 기술을 거부한 게 아니라 책임의 주체가 보이지 않는 전환 과정에 제동을 건 것이다.

 

공공성 : 권리가 아닌 효율의 문제로 뒤바꾸다

정부는 공공부문의 인력 부족, 서비스 지연, 기관 간 비효율을 해소한다며 민간 AI 기술에 공공데이터를 결합해 활용하는 ‘범정부 AI 공통기반’을 추진하고 있다. 이 과정에서 시민의 정보인 공공데이터는 AI 전환에 필요한 ‘자산’으로만 다뤄지고, 공공부문 AI가 시민의 권리에 미칠 영향에 대한 위험 평가나 책임 강화 방안은 제시되지 않는다. 공공부문 AI 관련 계획과 성과 지표 역시 ‘민원 처리 속도’, ‘업무 자동화’, ‘비용 절감’과 같은 운영 효율 논리에 집중되어 있다. 그러나 공공부문은 시민의 사정을 듣고 예외를 고려하며 판단 근거가 설명되고 이의제기가 가능한 권리 보장의 절차가 핵심이며, 이는 단순히 속도와 비용의 기준으로 환원될 수 없다. 지금의 공공부문 AI 전환은 이러한 권리 보장의 과정을 불필요한 ‘비용’으로 취급하며, 정부가 시민을 위해 무엇을 어떻게 책임질 거냐의 질문은 사라진 채 기술 도입만으로 해결 가능한 문제처럼 왜곡하고 축소한다. 공공성이 권리의 원칙이 아니라 효율의 논리에 종속되는 것이다.

이러한 문제를 앞서 교육 영역에서의 AI 도입으로 확인하기도 했다. 윤석열 정부 시기, 학습 분석과 AI 튜터, 맞춤형 교육을 내세우며 ‘AI 디지털교과서’가 추진됐다. 당시 교육부는 AI 교과서를 학습 격차 해소와 교사 업무 경감을 위한 혁신처럼 설명했다. 하지만 AI 교과서는 표준화된 교육과정과 평가기준을 바탕으로 콘텐츠와 학습 경로를 제공하는 방식으로 설계되어 다양한 자료와 관점에 기반한 학습을 확장하기보다 이미 설정된 기준을 효율적으로 이행·관리하는 교육을 강화하는 방향으로 작동했다. ‘학생 개인 맞춤형’이라는 명분과 달리 교육 내용이나 방향의 다양성을 확장하지는 못하는 것이다. 동시에 교육의 질을 근본적으로 제약하는 획일적인 평가 체계와 경쟁적 교육 환경이 유지되는 조건에 대한 질문은 사라진다. 나아가 학습 과정과 성취, 행동 데이터가 상시적으로 수집·분석되는 구조는 학생을 교육의 주체가 아니라 그저 관리와 평가의 대상으로 만든다. 학생의 의견이 충분히 수렴되지 않은 채 정책이 밀어붙여지는 과정은 학생의 교육권을 약화시킬 수밖에 없다. 어떠한 교육이어야 할지, 교육의 권리를 어떻게 보장할 것인지 질문을 지우고, 이미 정해진 기준을 얼마나 효율적으로 관리할 것인가의 문제로 대체한 것이다.

복지 영역에서 AI는 복지의 사각지대를 줄이기 위한 수단으로 소개된다. 하지만 효율과 비용 통제를 중심에 둔 설계 속에서, 실제 활용은 더 많은 이들에게 복지를 가닿게 하기보다 수혜 자격을 가려내는 데 집중되는 경향을 보인다. 이미 기획재정부가 세금계산서 발행 후 취소, 가족 간 거래 등 ‘의심 패턴’을 알고리즘으로 탐색해 부정수급을 적발하는 시스템을 도입한 바 있고, 한국전력 역시 취약계층 전기요금 할인 혜택의 ‘부당 이용’을 찾아내기 위해 AI를 활용하고 있다. 문제는 이러한 시스템이 입력된 데이터값을 기준으로 작동하기 때문에 개인이 처한 특수한 상황이나 일시적 변화, 삶의 맥락을 적절하게 반영하기 어렵다는 한계를 갖는다는 점이다. 실제로 프랑스에서 AI 부정수급 위험 점수 시스템 역시 저소득, 실업, 불안정 노동 등 취약한 조건 자체를 ‘위험 요인’으로 학습해 차별을 강화한 것으로 드러났다. 그러나 판단 기준은 수급자에게 충분히 공개되거나 설명되지 않은 채 결과만이 통보될 뿐이다. 수급자는 왜 탈락했는지 알기 어렵고 이의제기 또한 쉽지 않다. 그 결과 오히려 취약한 조건에 있는 이들을 제도 밖으로 밀어내는 결과로 이어질 수 있다. 

 

산업 성장을 위한 자원 몰아주기

AI가 우리 사회 전반에 이미 미치고 있거나 미치게 될 문제들이 이미 확인되고 있음에도 정부 정책은 이러한 문제를 어떻게 줄일 수 있을지를 고민하기보다, AI 도입과 전환을 위한 속도전에만 골몰할 뿐이다. 이를 위해 모든 데이터를 AI 산업의 신속한 확장을 위해 활용할 수 있도록 하는 데 정책 무게를 두고 있다. 노동 기록, 학습 과정, 일상의 선택과 이동, 감정과 반응까지 데이터로 전환되어 AI를 학습시키는 수단으로 쓰인다. 시민들은 자신의 데이터가 언제 어떤 목적을 위해 사용되는지 설명을 요구하고 거부할 수 있어야 한다. 그러나 데이터 활용은 사전에 충분히 고지되거나 동의를 전제로 이루어지지 않고 ‘개인정보 처리 방침 변경’이라는 형식적인 정당화만 이뤄질 뿐이다. 이후에 동의를 철회하거나 데이터 삭제를 요청하더라도 이미 학습에 반영된 정보는 시스템에서 완전히 제거되기 어렵기 때문에, 한 번 AI 학습에 사용된 데이터는 사실상 되돌릴 수도 없다. 무분별한 데이터 활용의 문제는 나아가 그 사용 목적과 기준이 사회적으로 합의되지 않은 채 산업 전략에 편입된다는 점이다. 이는 개인정보 침해를 넘어, 개인의 일상에서 수집된 데이터가 가령 무기 개발이나 군사·치안용 AI에서 감시 대상과 위협을 판단하는 기준으로 활용되며 우리의 생명과 안전에까지 영향을 미치는 문제이기도 하다.

AI 산업을 떠받치기 위해 동원되는 것은 데이터에 그치지 않는다. 데이터를 관리해가는 데 엄청난 자원이 소모된다. 데이터센터는 대규모 서버를 24시간 상시 가동하며 데이터를 저장·처리하는 시설이다. AI 모델의 학습과 운영에는 막대한 연산이 필요하고, 이를 위해 수많은 서버가 동시에 작동한다. 이를 가동하기 위한 전력과 냉각을 위한 물이 엄청나게 소모될 수밖에 없다. 가령 전력의 경우, 향후 5년간 국내에 새로 지어질 약 150곳에 달하는 데이터센터가 언제든 가동될 수 있도록 전력망이 미리 확보해야 하는 최대 전력은 9.4GW 규모다. 이는 대형 화력발전소 여러 기를 동시에 가동하는 것과 맞먹는다. 어떠한 사회적 필요보다도 산업의 성장만을 전제로 자원을 몰아주는 선택을 하는 것이다. 한정된 자원을 산업에 집중 투입하는 선택은 그 자체로 사회적 비용을 수반한다. AI 산업을 키우는 과정에서 전력망 증설, 발전 설비 확대, 온실가스 배출 증가로 인한 기후위기 심화와 같은 위험과 비용은 산업이 아니라 사회 전체가 떠안게 된다.

 

속도전을 멈추고 우리의 사회적 기준을 세우자

정부는 AI가 발전할수록 국가 경제도 사람들의 삶도 더 나아질 거라는 기대를 심어주며 속도전을 이어가고 있다. 이 과정에서 AI는 사회적으로 ‘선택’할 수 있는 대상이 아니라 피할 수 없는 ‘필연’처럼 제시된다. 도입의 당위는 강조되지만, 그로 인해 누가 어떤 영향을 받고 그 결과를 누가 어떻게 책임질지는 보이지 않는다. 사회의 주된 논의는 그저 AI를 어떻게 더 빠르고 효과적으로 배치할 것인가로 수렴되고, AI 도입의 영향을 받는 이들은 이러한 논의와 결정의 과정에서 배제된다.

문제는 AI 그 자체가 아니라, 어떤 사회를 만들 것인가에 대한 합의 없이 기술을 먼저 배치하고 그 부담과 피해를 사회에 전가하는 지금의 방식이다. 사람을 위해 AI를 도입하는 게 아니라 AI를 도입하고 사람을 어떻게 할지를 고민하는 방식으로는 우리의 삶과 존엄을 지킬 수 없다. 기술에 끌려가며 장밋빛 낙관과 무력한 비관만을 오가는 대신, AI가 어떤 사회적 필요를 충족해야 하는지에 대한 사회적 원칙을 우리가 먼저 세워야 한다. 그 원칙 위에서 AI 도입의 범위와 속도, 책임의 내용과 주체를 함께 정하는 민주적 통제가 필요하다. 통제할 수 없는 미래로 밀어붙이는 속도전을 멈추고, AI를 지금 여기서 우리가 세운 사회적 기준 위에 놓고 결정하는 문제로 돌려놓자.