인공지능의 윤리적 문제

[사설] 인공지능의 윤리적 문제

20952

[방송기술저널=변철호 한국방송기술인연합회장] 인공지능(AI)은 4차 산업혁명의 핵심으로 전 분야에 걸쳐 활용되며 빠르게 진화하고 있다. 과거 자본가들이 토지와 석유로 부를 축적했다면 21세기에는 데이터가 최고의 자본으로 떠오르고 있다. 구글, 페이스북, 아마존 등은 무료 서비스나 게임을 제공하고 사용자들의 개인정보를 수집하고 분석해 사업에 활용하며, 판매하기도 한다. 이 막대한 양의 데이터를 활용하기 위해 빅데이터와 AI가 핵심 기술로 떠올랐고 향후 지속해서 성장할 기술이 될 것이다.

그러나 AI가 인간 생활에 밀접하게 적용되면서 예상치 못하던 각종 윤리적 문제가 발생하고 있다. 최근 AI 대화 서비스 ‘이루다’ 논란이 그렇다. 2020년 12월 22일 정식으로 시작한 이 서비스는 20대 여대생 ‘이루다’라는 AI 캐릭터에게 실제 연인들이 나눈 대화 데이터를 딥러닝 방식으로 학습시켰는데, 사용된 데이터의 양이 약 100억 건에 달한다.

덕분에 기존에 비해 엄청나게 자연스러운 대화를 할 수 있게 된 이 서비스는 3주 만에 40만 명이 넘는 가입자를 보유하게 되었다. 그러나 실제 대화를 통해 학습한 AI는 성 소수자를 향한 혐오 표현을 내뱉거나 남성들에게 성희롱의 대상이 되기도 해 한 달도 채 못가 서비스를 종료하게 되었다. 대화 중 학습한 특정인의 이름과 주소, 계좌번호까지 등장하자 개인정보 유출 의혹마저 제기됐다.

과거 마이크로소프트에서 개발한 ‘Tay도’ AI로 만들어진 챗봇이었는데 히틀러는 잘못한 게 없다거나 유대인 혐오, 인종 차별적인 발언으로 16시간 만에 서비스를 종료한 바 있다.

AI 프로세스는 수집된 데이터를 알고리즘에 적용해서 처리한 후 원하는 결론을 얻는 것이다. 성공적 결과를 도출하기 위해서는 양질의 데이터를 대량으로 확보하는 것이 제일 중요한데 AI에 대해서 윤리를 말하는 이유는 AI가 스스로 배울 수 있게 된다는 점 때문이다. 편견을 가진 인간을 대상으로 배우다 보니 AI도 결국 편견을 가진 존재가 된다는 것이다. 아마존이 비밀리에 개발한 AI 면접 시스템을 사용하다가 여성을 너무 차별적으로 대하는 결과를 보고 폐기한 사례가 있다. 또한, 플로리다 범죄자 1만 명을 대상으로 재범 가능성을 예측한 결과도 백인보다 흑인이 2배 이상 높다고 예측한 사례도 있다. 이것은 인간의 편견이 고스란히 AI에 전해졌기 때문이다. 최근 국내에서도 AI를 이용한 면접 시스템을 도입한 회사가 늘어나는 추세인데 이런 부분을 간과해서는 안 된다.

AI의 윤리·도덕적 판단이 중요해지는 이유는 이 문제를 해결하지 못한다면 관련 산업을 일으키기가 어려울 수 있기 때문이다. 구글이 기술 개발을 주도하고 있는 AI 자율주행차를 보자. 안정성 등에 있어서도 인간보다 월등히 우수하다는 평가를 받고 있지만 왜 도로에서 자율주행차를 찾아볼 수 없는 것일까?

자율주행 자동차가 사고를 냈다면 제조사, 차량 소유자, 차량 탑승자 중 과연 누구에게 책임을 물어야 하는가? 피할 수 없는 급박한 상황에서 보행자와 운전자 중 누구를 살려야 하는가? 이런 윤리·도덕적인 문제가 해결되지 않았기 때문이다.

이미 해외 유수의 기관들은 AI의 윤리적 문제가 주목받으면서 원칙과 가이드라인을 수립해왔다. 2019년 유럽연합 집행위원회 EU가 AI가 충족해야 하는 7가지 요건으로 인간의 통제 가능성, 안정성, 개인정보 보호, 투명성, 다양성, 차별 금지와 공정성, 지속 가능성, 책임성을 제시했다. OECD도 같은 해 AI 윤리 권고안을 마련했고, 구글이나 마이크로소프트도 자체적인 AI 윤리 원칙을 마련해서 준수하고 있다.

국내에서는 AI 알고리즘에 대한 공정성과 투명성에 대한 입법 움직임이 있고, 과기정통부는 가이드라인을 제시해 기업이 자율적으로 준수해 나갈 수 있도록 유도하겠다고 밝혔다. 방송통신위원회도 이용자를 대상으로 알고리즘의 편향성에 대해 교육을 하고 사업자를 대상으로 하는 교육을 지원하겠다는 입장이다. 또한, 중장기적으로는 이용자에게 피해를 준 AI의 책임 소재를 포함하는 법체계를 정비하겠다고 했다. 하지만 교육 강화 위주의 해법을 제시하고, 기업의 자율에 맡겨 강제성이 없다는 지적도 나오고 있다.

입법조사처는 “현재 법률이나 제도 등은 AI 개발·진흥에 중점이 있고, 안전한 사용에 관한 조치는 미흡한 측면이 있다”면서 “AI가 인간의 삶과 조화를 이루며 발전할 수 있으려면 AI의 편견·남용 등을 방지하려는 노력을 기울여야 한다”고 강조했다.

아이작 아시모프가 1942년에 출간한 SF 소설 『런어라운드(Runaround)』 에서 제시한 로봇 3원칙은 오늘날 AI의 거의 모든 윤리·도덕적 문제의 원천이 되고 있다.
1원칙, 로봇은 인간에게 해를 끼치지 않는다.
2원칙, 로봇은 1원칙에 위배되지 않는 범위에서 인간의 명령에 복종한다.
3원칙, 로봇은 1·2원칙에 위배되지 않는 범위에서 스스로를 보호한다.

AI 설계자의 주관과 이용자의 윤리의식 모두가 문제 될 수 있는 만큼 양질의 데이터를 이용해 인간에게 이로운 지능을 어떻게 개발하고 사용할지 구체적인 논의가 이뤄지길 바란다. 어떠한 차별도 없이 인권을 존중하고, 투명하며, 공정한 AI 기술을 발전시키기 위한 정부와 국회, 시민사회의 목소리가 필요한 시점이다.