Interlude/IT 보안 뉴스 스터디

[AI 신뢰성①] 믿을 수 없는 AI는 시한폭탄이다

myejinni 2022. 5. 22. 22:55

-색상 별 하이라이트는 하단의 내용을 대표함-

 

         : 사례 설명

         : 문제점, 단점

         : 주제의 sub point

         : 주제의 main Point

 

[기사전문]

신뢰할 수 있는 AI를 위한 여정
AI 영역 확대될수록 신뢰성 의문 증가…민간 주도의 신뢰성 인증 선제 출범

AI는 산업 분야를 막론하고 혁신을 가속화시키기 위한 필수요소로 자리잡았다. 그러나 한편으로 AI의 역할이 커질수록 오작동을 일으켰을 때 발생할 수 있는 사고 규모도 커지고 있다. 마치 불이 인류 문명의 발전에 크게 공헌했지만 때로는 화재를 일으켜 심각한 피해를 입히기도 하는 것처럼 말이다. 특히 딥러닝을 통해 개발된 AI는 여전히 블랙박스 문제를 안고 있어 언제 터질지 모르는 시한폭탄처럼 느껴지기도 한다.

이에 따라 최근 전 세계 정부와 IT 기업들은 신뢰할 수 있는 AI를 만들고 이를 검증할 수 있는 기술과 제도 개발에 많은 관심을 쏟고 있다.


AI가 확산될수록 위험도 높아진다

지난 2016년 3월, 알파고(AlphaGo)가 이세돌 9단을 꺾으면서 AI의 가능성을 전 세계에 알렸다. 이미 6년 전의 일이다. 이제 우리에게 AI라는 단어는 더이상 낯설지 않다. 현대인의 생활 필수품인 스마트폰부터 시작해 자동차나 병원, 쇼핑 등 AI가 적용되지 않은 영역을 찾기 힘들 정도다. 산업계에서도 금융‧제조‧유통 등 분야를 가리지 않고 모든 곳에 AI가 적용되고 있다. 앞으로도 한동안 AI는 인류 발전의 모든 곳에 중요한 역할을 할 것으로 보인다.

그러나 AI가 가져다주는 빛이 밝아질수록 그만큼 그림자도 깊어지고 있다. AI가 더 많은 곳에서 더 중요한 역할을 수행할수록 AI가 오작동했을 때 일어나는 문제 역시 커지기 때문이다. 뉴스나 포털 사이트 등을 통해 오작동한 AI가 일으키는 문제를 심심찮게 만나볼 수 있다.

국내에서 AI가 일으킨 사건 중 가장 큰 주목을 받은 것은 단연 ‘이루다’일 것이다. 이루다는 스캐터랩이 개발한 대화형 AI 챗봇 서비스다. 2020년 6월 페이스북 메신저를 통해 베타 버전을 공개하고, 같은 해 12월 정식 출시됐다. 방대한 일상회화 데이터를 학습해 어떤 주제에 대해서도 자연스럽게 대화를 나눌 수 있는 것은 물론, 사용자에게 먼저 말을 걸거나 이루다 자신의 일상을 공유하면서 진짜 사람처럼 느껴지는 AI를 구현해 주목을 받았다.

그러나 이루다는 정식 출시 이후 성소수자와 장애인에 대한 혐오 발언, 남녀 차별적인 표현, 20대 여성으로 설정된 이루다에 대한 성희롱 등 수많은 물의를 일으켰다. 여기에 학습에 사용한 데이터를 제대로 정제하지 않아 개인정보 유출 문제까지 발생하면서 비난의 목소리는 더욱 높아졌다. 이에 스캐터랩은 아직 이루다의 수준이 부족하다는 것을 인정하고 서비스를 잠정 중단했다.

이루다는 우리 사회가 AI에 대해 경각심을 가지게 하는 계기가 됐다. 알파고가 이세돌 9단을 이겼다지만 AI는 여전히 완전한 기술이 아니며, 언제든 실수를 저지를 수 있다는 것. 특히 이루다는 그저 대화형 AI 챗봇이었기에 개발자가 예기치 못한 문제가 발생해도 서비스 종료 수준에서 마무리될 수 있었지만, 만약 더 중요한 역할을 하도록 만들어진 AI였다면 심각한 사회적 문제를 일으킬 수도 있었을 것이다. 예를 들어 자율주행차를 운전하는 AI가 오작동을 일으켜 횡단보도를 건너는 사람을 인식하지 못하게 된다면?


과기정통부 ‘신뢰할 수 있는 AI 실현전략’ 제시

AI가 사회적 문제를 일으키지 않도록 하려면 어떻게 해야 할까? 가장 간단한 방법은 AI를 완전히 배제하고 그 이전으로 돌아가는 것이다. 하지만 당연하게도 이는 현실적이지 않다. 화재가 무섭다고 불을 쓰지 않을 수는 없듯, AI는 이미 사회 전반에 깊숙이 침투했으며 우리는 AI가 가져다주는 혜택을 너무 경험해버렸다. 이제 와서 AI를 완전히 배제할 수는 없다. 그렇다면 남은 방법은 믿을 수 있는 AI를 만드는 것, AI 신뢰성에 대한 문제를 고민하는 것이다. 이에 전 세계 주요국에서는 AI의 신뢰성 확보를 위한 정책을 앞다투어 내놓고 있다.

우리나라에서도 AI 신뢰성 확보를 위한 제도 마련에 박차를 가하고 있다. 과학기술정보통신부(이하 과기정통부)는 지난해 5월 ‘신뢰할 수 있는 AI 실현전략’을 발표했다. 과기정통부 측은 “사람이 중심이 되는 AI 강국으로 도약하기 위해 ‘신뢰할 수 있는 AI’ 실현을 위한 지원 정책이 조속히 필요하다”며, “(이번 전략에는) 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며, 재정과 기술이 부족한 스타트업 등에 대한 지원책을 담았다”고 설명했다.

과기정통부는 이번 실현전략을 통해 △신뢰 가능한 AI 구현 환경 조성 △안전한 AI 활용 기반 마련 △사회 전반의 건전한 AI 의식 확산 등의 3대 전략과 구체적인 10대 실행과제를 제시했다. 즉 민간에서 성능과 안정성이 뛰어난 AI 서비스가 나올 수 있도록 지원하는 한편, 이용자들이 AI를 믿고 안전하게 사용할 수 있도록 제도적으로 보완한다. 한편으로는 사회적‧인문학적으로 AI 활용과 윤리에 대한 교육을 강화해 전 국민이 AI에 대한 건전한 의식을 함양할 수 있도록 한다.

과기정통부는 ‘신뢰할 수 있는 AI 실현전략’이 지난 2020년 발표한 ‘AI 윤리기준’의 실천방안을 구체화한 것이라고 설명했다. 구체적인 내용을 살펴보면 정부가 AI 기술을 대하는 방향성이 다소 달라졌음을 느낄 수 있다. ‘AI 윤리기준’은 ‘인간성을 위한 AI’라는 키워드를 내세우며 △인간의 존엄성 △사회의 공공선 △기술의 합목적성 등 AI의 긍정적으로 사용하자는 방향성을 제시했지만, ‘신뢰할 수 있는 AI 실현전략’은 상대적으로 AI의 오작동과 위험성을 경계하며 믿을 수 있도록 만들어야 한다는 수비적인 면모가 돋보인다.

[기사출처]
: 아이티데일리(http://www.itdaily.kr)