전체메뉴
AI도 윤리 논란 … 챗봇 ‘이루다’ 서비스 중단
메신저 프로그램 통해 인공지능 컴퓨터와 대화 주고받는 서비스
혐오발언에 성차별 지적
2021년 01월 12일(화) 19:40
AI 챗봇 ‘이루다’
사람과 구분하기 힘들 만큼, 나날이 발전하는 인공지능(AI)이 ‘윤리’의 벽에 부딪혔다.

윤리 문제로 구설수에 오른 AI 챗봇 ‘이루다’가 지난 11일 결국 서비스 잠정 중단을 선언했다.

이루다는 스캐터랩이 지난달 23일 출시한 챗봇(채팅 봇)으로, 메신저 프로그램을 통해 인공지능 컴퓨터와 대화를 주고받는 서비스다.

20대 여성을 모티브로 제작된 챗봇 이루다는 실제 사람처럼 자연스러운 대화가 가능해 출시 2주만에 이용자 75만명을 넘기며 주목받았다.

하지만 얼마 지나지 않아 논란이 불거졌다. 동성애·장애인 혐오, 성차별적인 말뿐 아니라 욕설, ‘일베’에서 쓰이는 표현 등을 무분별하게 쏟아낸다는 지적이다.

한 누리꾼이 인터넷 커뮤니티에 공유한 이루다와 대화에는 “레즈비언에 왜 민감해”라는 질문에 “진짜 싫다. 혐오스럽다”고 답하는 모습이 담겼다. “지하철 임산부석”이라는 말에 “혐오스러운 단어”라고 답하거나, 장애인 비하 발언을 하는 모습도 이어졌다.

이는 이용자들이 이루다에게 부적절한 대화를 ‘학습’시킨 결과다. 이루다는 구글 ‘알파고’와 비슷한 딥러닝 AI로, 무수한 SNS 이용자들의 대화를 바탕으로 대화 패턴을 익혔다. 이용자들과 이뤄지는 실시간 대화도 학습 수단으로 활용하고 있다.

AI 윤리 논쟁은 이루다가 처음이 아니다. 마이크로소프트가 지난 2016년 3월 공개한 챗봇 ‘테이’(Tay)도 윤리 문제로 홍역을 앓다 16시간 만에 운영 중단됐다. 당시 ‘테이’는 백인우월주의, 여성·무슬림 혐오 등 인종·성차별·정치적 발언을 쏟아냈다.

테이는 이용자들로부터 ‘날 따라해 봐’(repeat after me)라는 문장을 배웠고, 이용자들은 이를 악용해 테이가 비속어와 차별적 언어를 말하게끔 유도했다. 얼마 지나지 않아 테이는 욕설은 물론 “9·11 테러는 조작됐다”, “히틀러가 옳았으며, 나는 유대인이 싫다”, “페미니스트는 죽어야 한다”는 등 발언을 서슴없이 쏟아냈다.

‘결국 이용자가 부적절한 표현을 가르친 셈이니, 이용자가 문제’라는 의견은 힘을 얻기 힘들다.

2017년 세계 AI 전문가들은 ‘미래 인공지능 연구의 23가지 원칙’을 발표, “AI 시스템의 설계자는 사용·오용과 그 도덕적 영향의 이해 관계자이며 책임이 있다”고 못박았다. 이어 “고도화된 AI 시스템은 건강한 사회를 지향해야 한다”며 AI의 편견·차별을 방지하는 원칙이 필요하다고 강조했다.

지난해 미국 하버드 법대 버크만센터도 최근 가장 많이 언급된 AI 윤리 원칙으로 ‘공정성과 무차별성’을 꼽기도 했다.

이루다 개발사는 제한 키워드 설정 등으로 부적절한 대화에 대처했으나, 한계가 있었다는 입장이다. 또 이용자들의 공격을 학습 재료로 삼고, 더 좋은 대화를 하는 방향으로 학습을 이어가겠다고 밝혔다.

하지만 ‘이루다가 성희롱 표현에 무력하다’는 지적부터 개발사의 개인 대화 내용 무단 유출 논란까지 불협화음이 겹치면서 이루다의 미래는 장담하기 힘든 상태다.

/유연재 기자 yjyou@kwangju.co.kr