본문 바로가기

라이프

어서 와 통상법은 처음이지?
EU의 AI법, 디지털무역의 장벽이 될 것인가?
유럽이 인공지능(AI) 규제법 도입을 서두르는 배경은 비단 ‘인간’만을 위한 것은 아니며, 궁극적으로는 미국의 거대 정보기술(IT) 기업을 견제하기 위함이라는 분석이 있다. 구글, 마이크로소프트, 메타 등 소위 미국 실리콘밸리의 ‘빅테크’들이 글로벌 IT 패권을 쥐고 있는 상황에서 유럽이 인권을 중시하는 AI법을 선도적으로 마련해 미국 IT기업의 독과점을 막으려 한다는 시각이다. 과연 유럽연합(EU)의 AI법은 결국 디지털무역의 장벽으로 작용하게 될까?
허난이 법무법인(유) 광장 국제통상연구원 연구위원

AI법 제정, 유럽의회 통과에도 불구하고 아직 갈 길이 멀다?!

지난 6월 14일 유럽의회에서는 압도적인 찬성표와 함께 세계 최초로 인공지능(AI) 기술을 규제하는 소위 “AI법(AI Act)” 협상안이 가결됐다. 물론 많은 공상과학(SF) 영화에서 지적해온 바와 같이, 오늘날 인간을 위협하는 AI를 견제할 필요가 있다는 점에서 EU의 AI법 협상안 가결은 매우 큰 진전으로 평가된다.
하지만 다소 복잡한 유럽의 입법 체계로 인해서 당장 이 법안이 적용되지는 못할 것이다. 6월 14일에 있었던 표결은 다가오는 최종 협상에서 유럽의회의 입장을 최종 승인하는 것에 불과하다. 이후 유럽의회는 AI법안을 법제화하기 전에 EU 회원국 27개국을 대표하는 EU 이사회, 그리고 EU 집행위원회와 3자 협상을 통해 세부사항을 논의해야 한다. 현재까지 알려진 바에 따르면 세부 규제 방향을 두고 EU 집행위원회와 이사회, 유럽의회 간 입장이 조금씩 다른데, 예를 들면 유럽의회가 가결한 협상안에는 AI를 활용한 안면인식 등 원격 생체인식을 전면 금지하는 방안이 포함됐지만 집행위원회나 이사회는 이에 대해 의견을 달리하고 있다. 만약 3자 협상 타결이 빠르게 진행돼 올해 말에 이루어진다 하더라도, 법률 제정 이후 2년간의 유예기간이 예상되는 만큼 실제 규제는 2026년부터 적용될 전망이다. 따라서 동 법이 우리 디지털 경제에 직접적인 영향을 미치기까지는 아직 갈 길이 멀다.

위험 영역 AI에 대한 안전성 확보 규제 조치

물론 남은 협상 과정에서 법안 내용이 일부 수정될 가능성도 있지만, 기본적으로 AI법은 유럽에서 개발되고 사용되는 AI가 인간 중심적이고 신뢰할 수 있는 AI의 활용을 촉진하고 유해한 영향으로부터 인간의 건강, 안전, 기본권과 민주주의를 보호하는 것을 목표로 한다. 동 법에 따르면 AI로 인해 초래될 수 있는 위험은 ‘수용 불가능한 위험’, ‘고위험’, ‘제한된 위험’, ‘최소 위험’의 4단계로 나뉜다. 그리고 이러한 위험을 방지하기 위해서 AI의 사용과 관련해 여러 규제를 포함하고 있는데, 대표적인 예로서 AI로 사람을 판단하고 개인의 사회적 행위 등을 평가 또는 점수화하는 소셜 스코어링(Social Scoring), 민감한 특성(성별·인종·민족·시민권 상태·종교·정치적 성향)을 사용하는 생체인식 분류(Biometric Categorization) 및 감정인식(Emotion Recognition)을 위한 AI 시스템은 전면 금지된다. 또한 챗GPT와 같은 생성형 AI의 저작권 조항을 추가하고, 소셜미디어의 추천 알고리즘에 대한 신규 규제를 도입했다. 의무 부과 및 처벌 규정 역시 매우 강력하다. AI 제조기업에 위험관리 시스템을 구축하고 유지하는 등 차등적인 의무를 부여하고 있으며, 금지조항 위반 시 3,000만 유로 (약 430억 원) 또는 전년도 총 매출액의 6%를 벌금으로 부과한다. 이를 구글이나 마이크로소프트 등과 같은 거대 기술 기업에 적용할 경우 수십억 달러(수조 원)에 이른다. 이 때문에 유럽의 주요 기업 관계자들은 혁신성이 뛰어난 기업들이 해외로 활동을 이전하고, 유럽 지역의 AI 개발 투자가 위축됨에 따라 오히려 유럽 지역의 AI 개발이 미국에 비해 둔화될 것이라고 주장했다. EU AI법이 미국 IT기업의 독주를 막고 유럽의 IT산업을 보호·육성하기 위한 디지털무역 장벽이 된다는 분석과 달리 정반대의 우려가 제기되고 있는 것이다.

AI산업계에 미치는 영향

분명한 것은 우리 AI 기업들이 EU 시장에 진출할 경우 동 법으로 인한 부담이 예상된다는 점이다. 일례로 규제 대상 중 ‘고위험 AI’로 분류된 유형은 ‘제3자(인증기관) 적합성 평가를 받아야 하는 제품 또는 그 안전요소’로 규정돼 있는데, 이들 제품에 AI를 적용하는 경우 리스크관리시스템·품질관리시스템 구축, 적합성 평가, 기술문서 작성, 투명성 및 활용자 정보 제공 등 너무 많은 의무가 가중된다. 결국 EU AI법은 EU 역내 산업의 보호 가능성과는 별개로 디지털무역의 장벽으로서 작용하게 될 소지가 다분하다. 그리고 이는 향후 우리나라 AI 기본법 논의와 관련해서도 많은 시사점을 준다. 고위험 AI를 식별하는 등 반드시 필요한 규제는 마련돼야 하지만, AI 개발 과정과 AI가 적용될 서비스를 고려해서 ‘규제가 필요한지, 필요하다면 어느 정도의 규제가 필요한지'에 대한 사회적 논의가 반드시 수반돼야 할 것이다.

EU의 인공지능법 AI 위험성 분류표


생성형 인공지능(Generative AI)
빅데이터를 기반으로 이용자의 요구에 맞춰 능동적으로 정보를 제공하는 기술이다.
기존 데이터와 비교 학습을 통해 새로운 창작물을 탄생시키는 인공지능을 의미한다. 글로벌 기업 ‘오픈AI’가 선보인 ‘챗GPT’가 대표적이다.
관련 컨텐츠