대한민국 국회는 지난해 12월26일 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안」(통칭 “AI 기본법”)을 통과시켰으며, 이 법안은 여야 합의로 마련됐고 본회의에서도 여야가 참여한 가운데 압도적인 찬성으로 통과된 만큼 곧 국무회의 의결을 거쳐 공포될 것으로 예상된다.
이로써 대한민국은 유럽연합(EU)에 이어 AI 거버넌스를 규정하는 별도의 법을 채택한 두 번째 나라가 됐다. 이 법은 공포된 뒤 1년이 경과한 시점에 발효할 예정이다. 이를 계기로 국회입법조사처(NARS)는 『인공지능의 내재적 위험과 입법・정책 과제: 데이터・기술・이용자를 중심으로』라는 유용한 보고서를 발간했다.
《배경》
인공지능(AI)은 신기술로 인식되지만 이미 70년의 역사를 가지고 있다. 1950년 영국의 앨런 튜링(Alan Turing)이 「계산 기계와 지능(Computing Machinery and Intelligence)」이라는 논문을 통해 생각하는 기계, 즉 AI의 가능성을 제시했고, 1956년 미국 뉴햄프셔주 다트머스 대학에서 개최된 ‘다트머스 회의’에서 존 매카시(John McCarthy)가 ‘인공지능(Artificial Intelligence)’이라는 용어를 처음 사용함으로써 AI의 역사가 시작되었다.
지금까지 AI는 두 번의 큰 침체기(AI 분야에서는 이를 ‘겨울(winter)’이라 한다)를 겪으면서 발전해 왔다. 등장 초기에 AI에 대한 높은 기대에 힘입어 다양한 연구가 시작되었으나 당시의 컴퓨팅 성능이 충분하지 않아서 만족할 만한 성과를 내지 못했고 관련 투자가 줄어들어 1970년대 후반에 첫 번째 겨울을 맞았다.
그 이후 정해진 규칙에 따라(rule-based) 자동으로 판정을 내리는 전문가 시스템(Expert System)이 등장하여 잠시 붐을 이루다가 비용 대비 성능이 충분하지 못해 투자가 축소되고 1990년을 전후로 두 번째 겨울이 시작되었다.
현재는 인공신경망을 기반으로 AI가 스스로 학습해서 규칙을 찾는 기계학습(machine learning)이 발전하고 있으며, 2022년 11월에 기계학습 기반의 AI 챗봇인 챗지피티(ChatGPT)가 출시되면서 AI의 대중화 시기를 맞고 있다.
오늘날 AI의 특징은 대량의 데이터를 학습하여 AI 모델(model)의 성능을 극적으로 개선하고 이를 다양한 시스템(system), 즉 응용서비스에 활용하는 방식이다. 가장 대표적이고 대중적인 AI 시스템은 언어・이미지・영상 등을 만드는 생성형 AI 서비스이지만, 2024년 노벨 물리학상과 화학상에서 AI가 핵심적인 역할을 수행한 것을 보면 머지않아 여러 분야에서 AI 활용이 폭발적으로 확대될 것으로 보인다.
《인공지능의 위험》
인공지능(AI)은 인간의 지능적 행위에 들어가는 시간과 수고를 줄여주고 인간이 직접 수행해왔던 판단과 창작 등의 기능을 보완・대체・증강함으로써 인간이 더 방대하고 새로운 지능적 활동을 경험할 수 있게 해 주지만, 한편으로는 인간의 일자리를 대체하거나 불완전하고 편향적인 결과를 제시하여 개인과 사회에 더 큰 혼란을 초래하는 위험을 내포하고 있다.
AI의 위험은 어느 영역(vertical)의 기존 기술・서비스에 AI가 적용되면서 발생하는 ‘파생적 위험’과 데이터 학습, AI 모델 구축・작동 등 AI의 생애주기에 걸쳐 공통으로(cross-sectional) 발생하는 ‘내재적 위험’으로 구분할 수 있다.
파생적 위험은 콜센터에 AI를 적용하여 기존 일자리가 대폭 감소한 것과 같이 AI가 사용된 영역에서 직・간접적으로 발생하는 효과로서, 신기술의 도입 과정에서 나타나는 현상이며, 그 위험을 줄이려면 편익도 포기해야 하는 상충관계(trade-off)가 발생하므로 위험 대응과 함께 이익을 보는 집단과 피해를 보는 집단 사이의 재분배 조치가 필요하다.
내재적 위험은 현실의 문제로 불거지기 전까지는 가시적으로 드러나지 않기 때문에 문제를 파악하는 것이 쉽지 않고, 문제가 발생하면 개인과 사회에 큰 피해를 초래하므로 다양한 가능성을 열어놓고 사전에 체계적이고 종합적인 대안을 모색하는 것이 중요하다.
《인공지능의 내재적 위험 유형》
AI의 내재적 위험은 다양하다. 여러 연구에서 AI 위험을 제시하고 있는데, 각 연구마다 강조하는 부분이 조금씩 차이가 난다. 위험을 포괄적으로 살펴보기 위해서 복수의 연구에서 제시한 위험을 재분류할 필요가 있다. 이에 이 보고서는 연구・조사 기관의 신뢰성과 분야별 대표성 등을 종합적으로 고려하여 국제기구인 경제협력개발기구(OECD)가 제시한 10가지 위험, 국내 연구기관인 소프트웨어정책연구소(SPRi)가 분석한 25가지 위험, AI 기업인 아이비엠(IBM)이 설명한 67가지 위험을 1차적으로 살펴보았다.
그다음 내재적 위험과 거리가 먼 AI의 사회적 파급효과, AI 거버넌스 문제, AI 격차(국가 간 및 국가 내 AI 불평등), AI 불균형(소수 기업 및 국가에 AI 영향력 집중) 등은 제외하고 최종적으로 내재적 위험을 세 가지로 유형화했다.
첫 번째 유형은 ‘학습데이터 위험’이다. 여기에는 편향적이고 대표성이 낮은 부적절한 학습데이터, 무단으로 사용된 개인정보와 같은 부적법한 학습데이터 이슈가 포함된다.
두 번째 유형은 ‘AI 모델・시스템의 기술적 위험’이다. 기술적 위험을 초래하는 요인은 AI 내부 작동 방식에 대한 투명성・설명가능성 부족, 자율적 AI에 대한 인간의 통제 곤란, AI 작동으로 인한 인간의 권리 침해 등이다.
세 번째 유형은 ‘AI 모델・시스템 이용자의 위험’이다. AI의 위험을 충분히 인지하지 못한 부주의한 이용자, 타인과 사회에 혼란을 초래하기 위하여 악의적으로 AI를 이용하는 사람, AI로 타 사이트를 해킹을 하거나 AI 모델・시스템 자체를 해킹하는 사이버 공격자가 세 번째 유형의 위험을 초래한다.
이와 같은 AI의 내재적 위험 유형을 표로 나타내면 다음과 같다.