챗지피티(ChatGPT, 이하 'GPT')에 대한 관심이 뜨겁다. GPT는 미국 OpenAI사가 개발한 생성형 AI 챗봇으로, 사용자가 명령어나 질문을 입력하면 AI가 대답해주는 채팅 로봇 프로그램이다. 20221130일 출시 후 5일 만에 100만 명 이상이 가입했고 2023110만 명의 활성 사용자를 기록했다. 틱톡, 인스타그램과 같은 기존 유명 앱들이 월간 활성사용자(MAU) 10만 명 도달에 각각 9개월, 2년 소요된 점을 감안하면 엄청난 주목을 받고 있다는 것을 실감할 수 있다.

 

생성형 인공지능의 시대

 

생성형 AI는 단순히 기존 데이터를 분석하는 것에 그치지 않고, 머신러닝(Machine Learning)* 알고리즘을 통해 전에 없던 음악, 뉴스 기사, 이미지, 신제품 디자인 등 새로운 콘텐츠를 생성할 수 있는 인공지능 기술이다. 생성형 AI 기술은 이전에는 사람만이 할 수 있다고 여겨졌던 시그림 등 예술 작품도 생성할 수 있을뿐더러, 프로그램 코드, 에세이, 심지어 농담도 만들어 낼 수 있다. 

 * 프로그래밍 없이도 컴퓨터가 경험을 통해 학습하는 인공지능의 한 유형으로, 알고리즘과 통계모델을 사용해 패턴과 데이터 분석을 통해 예측 또는 의사 결정 가능

 

<명령어만으로 AI가 만들어낸 가상의 이미지>

[자료: KOTRA 브뤼셀 무역관]

 

GPT가 급부상하면서 이러한 생성형 AI 도입 경쟁도 치열해지고 있다. 마이크로소프트사는 기존 검색엔진 빙(Bing)에 챗GPT 기술을 탑재한 신규 버전을 출시했고, 구글도 이에 대응해 AI 챗봇 바드(Bard)를 선보였다. 또한, 구글은 자사 동영상 플랫폼인 유튜브에 생성형 AI기술을 접목하여 영상에서 가상의 배경이나 의상 적용이 가능한 기능을 개발할 예정이다.

 

AI 기술은 이미 생활의 다양한 부문에서 활용되고 있다. 스위스 스타트업 임팩트온사는 챗GPT를 이용한 온라인 기도 챗봇을 개발했고, 루마니아 총리실은 자체 개발한 AI 챗봇 이온(Ion)을 명예고문으로 임명하고, SNS 데이터를 분석·여론을 파악하는 업무를 맡도록 했다. 헝가리에서는 AI 암 진단 기술을 활용, 2021년부터 연간 35000건 이상의 유방암 진단을 수행하는 중 방사선 전문의가 놓친 암 22건을 AI가 찾아내기도 했다.

 

AI 기술 및 상업적 가치는 빛의 속도로 증가하고 있다. 사람의 개입 없이도 단시간 내 요청한 결과물을 낼 수 있어 전문인력 고용이 어려운 소규모 기업들이 특히 유용하게 활용할 수 있다. 챗봇을 활용한 상담창구 운영생성형 AI 기반 플랫폼에서 마케팅 콘텐츠, 디자인 등을 만들어 낼 수 있어 비용절감 효과도 있다. AI의 기술적 접근성이 낮아지면서 향후 혁신적인 기술 개발이나 비즈니스 모델이 발달할 것으로 기대된다. 


AI의 발전과 윤리·도덕적 이슈

 

한편, 유럽 내에서는 이러한 AI 기술의 발전에 대한 경각심을 가지고 법적 장치 마련의 필요성이 제기되고 있다. 이미 존재하는 수많은 자료를 처리해 알고리즘에 따라 결과물을 내놓는 머신러닝의 특성상 잘못된 정보, 의도치 않은 선입견이 포함된 정보, 저작권이 있는 내용 등이 사용될 수 있기 때문이다. 개인과 사회가 의도치 않게 윤리적 및 법적 위반에 노출되기도 하고 잘못된 의사결정을 지원하는 결과를 초래할 수도 있다.

 

한 예로 2012년 네덜란드 세무당국은 거짓으로 신고해 육아수당 지원을 받은 26000명에게 그동안 수령한 수당을 상환하도록 했다. 그중 6세 이하 자녀 셋을 둔 한 여성은 약 4년간의 수당 십만 유로 이상의 반환을 요구받았고, 거짓 신고 사실이 없음에도 불구하고 이를 지불해야만 했다. 하지만 2019년 네덜란드 세무당국이 육아수당 사기를 식별하기 위해 자가 학습 기능이 있는 AI로 거짓 신고 의심 집단을 리스트화했다는 사실이 알려졌다. 세무당국은 분류 과정에서 저임금, 소수민족 가정이 상당수 포함됐으며, 이중 국적자는 고위험 집단으로 분류되는 등 11000명이 부당하게 조사대상으로 선정되었음을 인정했다.

 

AI가 처리하는 정보들의 보안문제도 제기되고 있다. 2023320일에는 챗GPT의 오류로 일부 유료회원들의 이름, 주소, 신용카드 일부 정보들이 9시간 노출되는 사건이 있었다. 이에 이탈리아 데이터 보호청은 챗GPT의 개인정보 보호 규정 준수 여부가 확인될 때까지 서비스를 일시적으로 차단조치 했다. 규제당국은 조치에 대해 △ AI의 개인정보 수집 및 저장을 뒷받침할 법적근거가 부족하고, 13세 미만의 아동이용자들의 부적합한 콘텐츠 노출이 우려된다고 설명했다. 


세계 최초 AI 규제, 유럽 인공지능법(EU AI Act)

 

EU집행위는 AI가 초래할 수 있는 사회적 위험을 예방하고 신뢰할 수 있는 AI 기술 개발을 위해 2021421일 유럽 인공지능법(EU AI Act)를 제안했다세계 최초의 AI 규제라고 주목받고 있는 유럽 인공지능법은 AI 정의, △ AI 위험수준 분류 및 분류별 의무, △ 회원국 관리감독기관 임명 등을 주요 내용으로 한다.

 

(AI 정의) AI의 정의는 규정 적용범위를 결정짓는 가장 주요한 논점이다. 기존 소프트웨어가 포함되지 않도록 머신러닝 기반 시스템에만 국한하고자 하는 의견과 자동화된 의사결정을 포함하는 광범위한 접근 방식이 대립했다검토 초기, EU 의회는 미국국립표준기술연구소(US National Institute of Standards and Technology) 정의를 따를 것을 고려했으나 최종적으로 경제협력개발기구(OECD)의 정의 채택할 것으로 전망된다.(202337일 기준)

 

(감독기관) EU 집행위는 초안에서 각 회원국이 필요한 절차를 준수할 수 있는(necessary procedures are followed) 감독기관을 최소 하나 이상 임명하고, 관할당국의 집합체인 전문가 그룹을 조성하도록 제안했다유럽 인공지능법은 AI를 규제하는 것만이 아닌 보호와 개발의 균형을 맞추는 것이 중요하다고 보고, 관리당국의 감독 하에 통제된 환경에서 기업이 인공지능 솔루션을 테스트할 수 있도록 하는 규제 샌드박스 설정 가능성도 포함했다.

 

(위험성 분류) AI 기술 자체가 위험한 것은 아니지만 어떤 데이터를 어느 분야에 활용하느냐에 따라 위험성의 정도가 달라진다. 개인과 사회에 위협이 되는 정도에 따라 수용 불가(unacceptable risk), 고위험(high risk), 제한된 위험(limited risk), 최소위험(minimal risk)로 나누고 분류에 따라 법적 의무를 부과할 예정이다.

 

인공지능법 AI 위험성 분류표>

[자료: EU 집행위]

 

집행위 초안 발표 당시부터 세부적인 분류 및 기준을 두고 입법기관 간 의견이 팽팽하게 맞섰다. 주요 쟁점 사항은 아래와 같다. 

수용 불가-고위험 간의 기준

고위험 AI 서비스 공급자의 의무(: EU 데이터베이스 등록의무, 사고 발생 시 보고의무 등)

생체인식기술, 딥페이크, 일반 데이터보호규정(GDPR)에 따라 보호되는 정보 이용 시스템의 분류

법 집행 활동 및 공공기관 업무의 AI 적용 범위

기반시설의 위험 수준 구분 등

 

민감할 수 있는 사항에 대한 논의가 한창인 가운데 2022126EU 이사회는 일반적 접근(general approach)*을 채택했다. 20233EU 의회 위원회가 입장 채택 예정이었으나 426일로 연기됐고, 수정안은 5월 의회 본회의에 상정될 예정이다. 

* EU 표준입법 절차 기준, EU 의회의 입장 채택 전 이사회가 예비입장을 제시해 입법절차를 가속화하고 입법기관 간 합의를 촉진하기 위함

 

전망 및 시사점

 

GPT의 등장으로 범용 AI에 대한 규제 필요성도 제기되고 있다. 현재 검토 중인 법안에 따르면 챗GPT는 범용(general purpose) AI에 속한다. 범용 AI 이미지, 음성 인식, 오디오, 비디오 생성, 패턴 식별, 질문 답변 등을 포함하는 넓은 범위의 AI 시스템을 통칭한다. 다시 말해 챗GPT4단계 위험성 분류에 속하지 않고 범용 AI로 분류되기 때문에 유럽 인공지능법의 규제를 받지 않을 수도 있다는 의미이다. 하지만 범용 AI는 다양한 작업을 수행하는 과정에서 작은 의사결정이라도 최종 파급효과에 대한 예측이 불가능한 점 때문에 AI 모델의 목적을 명시하는 것이 중요하다는 지적도 있다. 이에, EU 이사회는 집행위가 제안한 법안 초안에 범용 AI 조항을 새로 추가하고 위임법을 통해 규제해야 한다는 입장이다.

 

20232, 티에리 브르통 EU 내부시장 담당 집행위원은 챗GPT와 같은 AI 솔루션은 기업과 시민들에게 큰 기회가 될 거라는 점은 분명하지만, 리스크가 될 여지도 있기 때문에 중요 정보를 처리하는 AI 시스템은 규제가 필요하다고 언급했다. 범용 AI로 분리되는 챗GPT도 규제 가능성이 있다는 것으로 해석된다.

 

법안 검토에서 협의, 공식 채택까지 수개월이 소요될 전망이지만 세계 최초로 AI 기술을 규제하는 법안인 데다 유럽의 법규정은 국제 표준에 반영되는 경우가 많기 때문에 최종 합의안 내용에 귀추가 주목된다.

 

 

자료: EU 집행위, EU 이사회, Open AI, 현지 언론 및 KOTRA 브뤼셀 무역관 자료 종합

원문 출처 : 코트라

원문링크 https://dream.kotra.or.kr/kotranews/cms/news/actionKotraBoardDetail.do?MENU_ID=70&pNttSn=201591