홈 > 칼럼 > 칼럼
칼럼
 

젠슨 황 방한 이후, AI 열풍과 노동의 대응

김성혁/민주노동연구원 원장
금속노조연구원   |  

1. AI 투자 열풍과 정부의 AI 정책

 

엔비디아 CEO 젠슨 황은 10.30 APEC 정상회의를 계기로 방한하여, 이재용, 정의선, 최태원 등 재벌 회장을 만나 AI 반도체 파트너 관계를 제안하고 한국에 GPU 36만 장 공급을 약속했다. 엔비디아는 방대한 연산이 필요한 슈퍼컴퓨팅용 AI 칩을 개발하면서, 시가총액이 2020년 2천억 달러 수준에서 2025년 6조 달러를 넘어 30배나 폭등하여 세계 1위에 올랐다. 젠슨 황 방한 이후 삼성·SK 그룹의 주가가 급등하고, 언론들은 한국이 AI 3대 강국이 될 수 있다는 장밋빛 전망을 보도하고 있다.

 

이재명 정부도 AI 대전환으로 선도 국가로 도약하자는 비전을 제시하며, AI 고속도로를 깔아 도약과 성장을 열어야 하고, AI 시대에 하루가 늦으면 한 세대가 늦는다고 기술혁신을 강조하고 있다. 실제 2026년 AI 사업에 작년의 3배인 10조1000억 원의 예산을 편성하고 AI 인재 1만1천 명 양성과 고성능 GPU 추가 구매, 5년간 150조 원의 국민성장펀드 조성, AI 관련 데이터, 인재육성, 산업강국 도약, 디지털전환 등을 위한 특별법 및 촉진법 도입을 제시하였다.

 

기술혁신에 대한 과도한 집중은 역대 정부들도 비슷했는데, 박근혜 정부는 과학기술과 ICT 기반의 창조경제를 성장엔진으로 강조하였고, 문재인 정부는 대통령직속의 4차산업혁명위원회를 구성하고, 디지털 뉴딜에 이어 전 세계에 공급할 코로나 백신 개발까지 나섰지만 큰 소득 없이 끝났다. 윤석열 정부는 대통령직속 국가인공지능위원회를 구성하여 AI 3대강국, 기술혁신, AI 기본법 제정 등을 추진했고, 원인 투아웃 규제 혁파와 감세로 민간주도 성장을 강조하였으나, 세수 펑크로 오히려 R&D 예산을 삭감하여 반발이 컸다. 역대 정부들의 기술혁신 성장정책은 모두 친기업 규제 완화, 감세, 인프라 지원, 보조금 지급 등으로 귀결되었고, 노동자와 서민은 배제되어 양극화가 심화되었다.

 

한국이 AI 3대 강국으로 도약하는 것은 쉽지 않다. AI 모델은 미국(40개)과 중국(15개)에 비해 한국은 네이버와 카카오가 개발하고 있는 수준이다. AI 반도체에서는 팹리스와 파운드리가 거의 없고 메모리는 중국의 추격을 받고 있다. AI 클라우드는 대부분 구글과 아마존 것을 쓰고 있다. 매년 공학·엔지니어 졸업생만 200만 명이 넘는 중국과 비교하면 인재 양성에서도 밀리고 있다. 2024년 AI 특허 수를 보면, 중국이 12,945개, 미국이 8,609개, 한국은 약 1,200개로 차이가 크다(스탠퍼드대학교, 2025 AI 지수보고서)

 

2. AI 기술의 장점과 한계

 

개발된 AI 모델은 방대한 데이터를 분석하여 패턴과 맥락을 인식하고 확률적 추론이 가능하다. 최근에는 학습 데이터를 스스로 만들고, 디지털 트윈으로 시뮬레이션도 가능하다. 이는 많은 산업에 쓰이고 있는데, ‘고객 응대 및 서비스 업무(텔레마케터, 발권 직원, 일부 영업직)’, ‘회계·세무·법률 등 행정업무’, ‘번역과 통역’, ‘금융 투자’, ‘의료분야의 영상 판독’, ‘반복적인 육체노동’, ‘이미지·음성·비디오 등 콘텐츠 생성’ 등을 할 수 있다. 또한 휴머노이드 로봇 등 AI를 탑재한 디바이스가 출현하여 인간노동 일부를 대신하고 있으며, 스마트폰을 대신하여 실시간 데이터 입력과 분석이 가능한 스마트 안경, 팔찌, 목걸이 등의 AI 인터페이스가 개발되고 있다.

 

그러나 아직 AI가 인간처럼 독자적인 사고와 판단을 하는 것은 아니다. AI는 방대한 데이터에 기반하여 미래를 예측하고 콘텐츠를 생성한다. 엄청난 분량의 문헌을 분석하여, “국가 간에 보호무역과 경제블록이 계속되면 ( ) 상황이 도래한다”는 문장에서 ( )가 ‘전쟁’이라는 것을 80%의 확률로 예측하는 것이다. 이를 예측하기 위해 AI는 딥러닝 방식으로 수천억~수조 회의 연산을 수행하여 학습하고, 학습된 모델에 입력을 넣어 출력을 얻는 과정(추론)을 진행한다. AI 모델이 확률을 내면, 이를 바탕으로 다음에 올 실제 단어를 고른다. 한 단어를 뽑아 문장을 만들고 다음 단어의 확률을 계산해서 반복적으로 하나의 문장이 만들어진다. 이렇게 텍스트가 만들어지는 것이 곧 생성이다. 이미지와 동영상도 같은 과정으로 생성된다. 따라서 AI의 분석과 생성은 통계적 가능성이므로 언제든지 틀릴 수도 있다.

 

‘공부는 해서 뭐하나 AI에게 물어보면 다 되는데’라고 생각할 수 있겠지만, 이는 틀린 생각이다. 최근 프로야구에 AI 심판이 도입되어 스트라이크·볼 판정을 하고 있는데, 가끔 AI가 판정을 못 내리는 경우가 있고 시스템이 다운되기도 한다. 이 경우 인간 심판이 상황을 파악하고 있다가 빠르게 개입해서 판정을 내린다. 다음으로 AI는 모른다는 답을 하지 않으며, 데이터를 분석하여 가장 가능성이 높은 확률을 제시한다. 따라서 사실이 아닌 정보를 그럴듯하게 만들어 내보내는 환각 현상이나 단순 실수, 계산 실패 등으로 인한 AI 오류가 발생할 수 있다.

 

또한 AI는 기존 데이터를 기반으로 판단하므로, 주류 집단의 보수적 판단에 가까울 수 있다. 범죄자 얼굴 이미지를 기반으로 재범률을 예측하는 AI 알고리즘 테스트는 백인보다 흑인 재범률을 훨씬 높게 추론한다. 데이터를 기반으로 하는 통계적 추론에서 여성, 장애인, 유색인종 등 소수 집단의 데이터는 수집하기 어렵다. 즉 알고리즘 학습 데이터에 고정관념과 기존 규범을 우선하는 편향이 존재할 수 있다. 따라서 기업 이윤 추구를 우선하거나 안전, 환경, 평등, 공정거래, 공공성, 소수자 가치 등을 부차시할 수 있다.

 

또한 AI를 활용하여 가짜(뉴스, 이미지, 영상, 음성)를 배포하고, AI 비서는 개인정보를 해킹할 수 있다. 나아가 살인이나 전쟁 범죄에 AI를 사용할 수도 있다. 이스라엘은 팔레스타인 하마스와 레바논 헤즈블라 공격에서, 이들 조직원들의 데이터를 입수하여 표적 명단을 구축하고, AI 시스템으로 드론과 미사일을 발사하였다. AI 알고리즘은 표적 혐의자 주변의 민간인 30명을 죽여도 되며, 고위간부인 경우 100명까지 죽여도 되도록 설계되었고, 결과적으로 수많은 민간인과 어린이들이 학살당했다. 결국 국제형사재판소(ICC)는 이스라엘 네타나후 총리와 요아브 갈란트 국방장관을 국제 전범으로 정하고 체포영장을 발부하였다.

 

AI의 문제점을 규제하기 위해 유럽연합은 AI 규제법을 도입하였다. 법안에 따르면 AI 시스템이 인권, 안전, 프라이버시를 침해하지 않도록 4단계로 분류하는데, 1단계 금지되는 AI는 사회에 중대한 해를 끼치거나 조작, 감시 등 인권 침해가 우려되는 경우로, 공공기관이 인간의 행동과 인격적 특성을 활용해 평가시스템을 만들거나, 직장·학교에서 인간의 감정을 추론하여 평가하는 시스템, 정치·종교·인종·성적 취향을 추론하는 생체분류 시스템 등이다. 2단계 고위험 AI는 공공안전, 노동자 권리와 기본권에 큰 영향을 미치는 경우이다. 3단계 제한적 위험 AI는 사용자에게 AI 사용을 알리고 투명성을 제공할 의무가 부과된다. 또한 AI 사무소를 설립하고 법 위반시 매출의 4% 또는 2,000만 유로의 벌금을 부과할 수 있다. 기업은 EU 내 AI 제품 및 서비스에 대해 엄격한 규제를 준수해야 한다.

 

3. AI 정책과 노동조합의 대응 방향

 

AI 시대의 핵심 역량은 ‘AI 및 디지털 기술 이해’, ‘창의적 문제해결 능력’, ‘인간-기계 협업 능력’, ‘사회적 영향 이해·협력 능력’, ‘적응력 및 평생학습 능력’ 등이다. 이를 위해서는 재교육 및 역량 강화 프로그램이 필요하다. 이는 ‘직무별 맞춤형 교육 프로그램’, ‘디지털 기초 역량 강화 프로그램’, ‘AI 윤리 및 거버넌스 교육’, ‘학습 생태계 구축 및 평생학습 지원 체계’, ‘기업과 협력모델’ 등이다. 사회적 과제로는 ‘AI 격차로 인한 낙오자 지원 등 사회안전망’, ‘AI로 창출한 부의 재분배(AI 소유와 운영권 등 포함)’, ‘AI 기술(알고리즘 등)의 공정성과 투명성(감시, 통제, 차별 금지)’ 등이 제기된다.

 

특히 노동은 AI 기술변화로 많은 영향을 받을 수 있다. AI로 인한 ‘일자리 감소’, ‘인사노무관리’, ‘현장감시와 노동통제’ 등으로 인간노동이 밀려나거나 보조수단으로 전락할 수 있다. 일자리 문제를 보면 제조업, 금융, 사무업무 등에서 사라지는 일자리와 AI 운영·관리·설계 등의 새로운 일자리가 있다. 일자리 총량의 문제보다 좋은 일자리가 사라지고 플랫폼·프리랜서 노동 등 나쁜 일자리가 늘어나는 것이다. 따라서 일자리 해법은 기업에 맡기는 것이 아니라, AI 거번넌스 차원에서 정부 정책으로 해결해야 한다. 관세폭탄 수출감소로 일감 부족, 생산성 향상으로 인력 감축 필요시, 기업은 정리해고를 할 수 있고, 신규 채용을 중단할 수 있다. 그러나 사회적 해법으로는 ‘주 4일제’, ‘교대제 개편(3조3교대를 4조3교대로 하고 인력충원)’, ‘안식년 등 휴가 확대’, ‘기본소득 도입’ 등으로 정부의 지원하에 고용·소득 안정을 이룰 수도 있다.

 

AI 개발은 거대한 기술의 진전이지만 그것이 농업혁명, 산업혁명에 준하는 산업 생태계의 변화는 아니다. 산업혁명의 단계를 나누어 1차 산업혁명을 증기기관을 통한 기계화, 2차 산업혁명을 전기를 통한 대량생산, 3차 산업혁명을 컴퓨터·인터넷을 통한 정보통신혁명, 4차 산업혁명을 AI·사물인터넷·빅데이터·5G가 융합된 초연결혁명으로 볼 때, AI는 이전 정보통신혁명과 잘 구분되지 않았던 4차산업혁명의 핵심 기술로 볼 수 있다.

 

AI 기술의 진전 그 자체가 유토비아나 디스토피아를 가져다주지는 않는다. 기술혁신의 목적과 방향, AI 소유와 활용 능력, 이익분배 방식 등을 사회가 어떻게설계 하는가에 따라, 노동자의 처지가 달라지고 국민의 삶의 질이 좌우된다. AI는 인간을 보조하는 유용한 도구이지만, 오류와 편향이 존재하고 언제든지 소프트웨어나 하드웨어에서 사고 발생할 수 있다(데이터센터 화재, 전쟁, 해킹 등으로 중단). 따라서 모든 판단을 AI에게 맡기면, 인간 스스로 생각하는 능력을 상실하고 AI의 잘못된 결정에 대해 누구도 책임지지 않는 결과를 초래할 수 있다.

   

정부와 기업, 언론의 과도한 AI 기술 결정론에 대한, 노동의 대응이 필요하다. 첫째 인간이 모든 내용 파악하고 고장시 대체·재설계할 수 있는 능력을 보유해야 한다. 둘째 기술변화로 인한 AI 격차에 대해 일자리 보장, 직무 교육훈련, 차별 금지 등이 필요하다. 셋째 진보진영과 노동조합의 적극적인 개입 전략이 필요하다. 기술변화로 인한 사회적 충격은 지대하므로 무시하면 안 된다. 진보단체와 노동조합은 AI 거버넌스에 참여하고, 중앙/산업/지역별 노정교섭, 사회적교섭, 노동조합의 단체협약 등을 추진하여 AI 윤리 및 관련 법안 도입과 정책 마련에서 노동자·서민의 입장을 반영해야 한다. <끝>