정일형 경성대학교 미디어 커뮤니케이션학과 교수.
정일형 경성대학교 미디어 커뮤니케이션학과 교수.

지난 5일과 6일 영국과 미국 내 공공기관에서 책임감 있는 AI 활용을 위한 인공지능 윤리 프레임워크를 발표했다. 영국과 미국은 5년 전부터 구글·아마존·페이스북·IBM·마이크로소프트 등의 IT 기업을 비롯해 국가차원에서도 인공지능 윤리 문제를 논의해왔다.
 
우리나라에선 AI 챗봇 '이루다'의 성차별 및 장애인 차별과 혐오 표현 등이 논란을 일으켜 인공지능 윤리 문제가 대두됐다. 5년 전 마이크로소프트에서도 AI 챗봇 '테이'를 발표했다가 인종차별 및 성차별적 발언을 학습시키려는 극우성향의 사람들 때문에 16시간 만에 운영을 중단했다. 이루다 사건으로 AI의 공정성에 문제가 제기됐다. 그전까지만 해도 AI는 인간의 감정이나 편견으로부터 자유롭기 때문에 인간보다 더 공정할 것이라는 생각이 지배적이었다. 
 
그런데 최근 몇몇 사건들을 보면 AI의 공정성을 의심할 수밖에 없다. 
 
국내 유명 배달업체에서는 AI가 배달기사의 근무평점을 매기고, 점수에 따라 배달을 할당하고 있었다. 회사는 배달 중 오토바이 사고가 난 기사들에게 휴직을 권했다. 휴직했던 기사들은 회사로 빠르게 복귀해 배달을 소화했다. 하지만 AI는 낮은 점수를 줬고, 기사들은 배달에서 배제됐다. 회사의 권유로 휴직했던 기사들은 억울함을 호소했지만, 회사는 인공지능이 하는 일이며 그 기준도 밝힐 수 없다고 답했다.
 
포털의 AI 운영도 도마 위에 올랐다. 한 방송사 탐사 프로그램에서는 국내 최대 포털에 계정 2개를 새로 만들어 서로 다른 정치성향의 기사를 보면서 AI에 뉴스 이용 성향을 학습시켰다. 보수성향 계정으로는 5분에 한 번씩 보수계열 신문을 읽도록 했고, 반대로 진보성향 계정으로는 진보계열 매체를 열독시켰다. 그런데 포털 AI는 아이러니하게도 두 계정 모두에 보수·중도성향 기사를 추천했다. 그 포털은 사용자로부터 얻은 사전 정보를 토대로 상품이나 콘텐츠를 추천하는 '협업 필터링' 알고리즘을 사용하고 있다고 밝힌 바 있다. 방송사가 문제점을 지적하자, 포털에서는 뉴스 편집에는 사람이 관여하지 않고 AI가 추천하기 때문에 문제가 없다고 말했다.
 
국내 사례 2건은 우리사회도 이제 AI에 대한 사회적 협의를 시작할 때가 됐음을 보여주고 있다. 사회적 협의에는 AI의 운영체계, 알고리즘, 인간의 개입여부 등 총체적 공정성이 포함돼야 한다.
 
아마존은 3년 전 개발 중이었던 'AI 채용 시스템'이 여성 지원자를 차별하는 것으로 드러나자, 프로그램을 폐기하고 개발팀도 해체시켰다. 이 프로그램은 이력서에 '여성'이란 단어가 포함된 문구가 있으면 감점을 시켰다. 반면 남성 기술자들의 이력서에 자주 쓰이는 동사가 있으면 가점을 줬다. 이는 AI가 지난 10년간 회사에 제출된 이력서를 학습해 지원자들을 심사했기 때문이다. AI가 남성 우위 현실을 그대로 학습한 것이다. 
 
AI가 학습할 데이터를 고르고, 학습시키는 것은 사람이다. AI는 인간이 찾아내지 못하는 숨겨진 편향성까지도 찾아낼 수 있다. 따라서 편향성이 제거된 완전히 공정한 표본은 만들 수 없다. 그렇다면 인간은 AI 기술이 인류에 미치는 영향력을 이해하고, 정부와 개발자는 인공지능의 안전과 윤리 문제를 해결해 나가면서 인공지능 기술을 발전시켜야 한다.      김해뉴스

저작권자 © 김해뉴스 무단전재 및 재배포 금지