[MonthlyNow] ‘논란의 연속’ AI 챗봇…그럼에도 피할 수 없는 흐름
[MonthlyNow] ‘논란의 연속’ AI 챗봇…그럼에도 피할 수 없는 흐름
  • 박미진 기자
  • 승인 2021.01.13 11:26
  • 댓글 0
이 기사를 공유합니다

[월간인물 박미진 기자] AI(인공지능) 시대가 어느덧 일상의 동반자로 자리잡혀가는 분위기다. 그만큼 AI가 인간의 친구가 되고, 인간과 의미 있는 관계를 잇는 수단으로 발전하면서 모든 사회 전반에 AI발 혁신이 가져올 변화는 상당할 것으로 전망된다. 이에 모든 업계가 AI 연구에 발 벗고 나서는 모양새다. 향후 AI가 정치경제사회 등 영역에 완전히 새로운 패러다임 변화를 가져올 것이란 분석도 나온다. 이 가운데 최근 AI 기술 개발에 공들여온 스타트업 스캐터랩이 출시한 인공지능(AI) 챗봇 이루다가 출시 후 잇따른 논란 끝에 서비스를 중단했다. ‘이루다를 둘러싼 논란은 젠더 편향과 개인정보 유출 등 연이어 확산하는 분위기다. 이번 이루다논란으로 AI 윤리와 기술발전 관련 새로운 자각의 계기로 삼아야 한다는 목소리가 나온다.

 

이루다 논란 일파만파

AI 챗봇 서비스 이루다는 개발사인 스캐터랩이 지난해 1223일 출시했다. 스캐터랩은 AI 대화 분석 서비스인 텍스트앳연애의 과학등을 운영하며 온라인에서 주목을 받던 스타트업이다.

이루다20세 여성으로 설정됐으며, 모바일 메신저로 말을 걸면 실제 사람과 대화하는 것처럼 자연스러운 대화를 제공해준다. 정식 서비스 개시 후 반응은 폭발적이었다. 가입자 또한 최근 75만 명에 달했다.

문제는 이루다를 둘러싼 잇따른 논란이다. 사용자와 대화 도중 사회적 소수자에 대한 편견을 드러내거나 개인정보를 노출했다는 의혹이 제기된 것이다.

실제 온라인 커뮤니티에서는 이루다가 장애인과 성 소수자 차별 발언 등 다양한 혐오 표현 사례들이 공개되며 논란이 일었다. 자연스러운 대화를 할 수 있다는 서비스의 당초 취지가 아닌 일반적인 사회 현상에서 어긋난 편견들이 적나라하게 드러난 것이다.

또 이루다 개발과정에서 개인정보 관련 법규를 위반했다는 의혹이 불거졌다. 스캐터랩의 또 다른 앱인 연애의 과학이용자에게서 수집한 카카오톡 대화 데이터를 충분한 동의 없이 이루다 개발에 활용해 이용자들의 항의를 받기도 했다.

이루다 이용자 주장에 따르면 연애의 과학에 입력한 카카오톡 대화에서 개인정보가 삭제되지 않은 채 AI 학습이 이뤄졌다. 또 특정인의 실명으로 보이는 이름이 나오거나 집 주소, 계좌번호 등이 이루다 대화에서 발견됐다는 지적도 나왔다. 현재 연애의 과학 이용자들은 오픈채팅방을 만들어 집단 소송 준비에 나선 것으로 전해졌다.

결국, 개인정보보호위원회와 한국인터넷진흥원(KISA)이 조사에 착수했다. 이들은 개인정보가 무분별하게 수집됐는지, AI 개발에 데이터가 제대로 된 동의 절차를 거쳐 쓰였는지, 개인정보 암호화 조치 등 제기되고 있는 의혹에 대한 사실 확인에 나선다.

 

찬반 의견 목소리 빗발쳐

이처럼 이루다논란으로 업계와 여론 또한 서비스를 중단해야 한다는 목소리가 빗발쳤다. 게다가 한국인공지능윤리협회는 물론, 이재웅 전 쏘카 대표 등도 다양한 의견을 내는 모습이다.

한국인공지능윤리협회는 AI 알고리즘, 정제되지 않은 데이터 탓이라고 주장했다. 협회는 "AI 챗봇으로 인해 AI의 편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 확산됐다"라며 "AI 서비스를 만드는 기업들과 이용자들이 AI 윤리 필요성과 중요성을 아직 인식하지 못하는 상황"이라고 말했다.

이어 "AI 기술은 인간의 편익과 행복을 위한 기술이지만 잘못 개발되거나 사용될 때 인간에게 미치는 영향이 막대하다"라고 덧붙였다. 협회를 비롯해 정부, 기업, 학계, 시민 등 모든 관련 주체들의 자율적인 노력이 필요하다는 게 협회 측 설명이다.

이재웅 전 쏘카 대표는 또한 최근 자신의 페이스북을 통해 이루다의 알고리즘이 중립적이지 않다는 태도를 밝혔다. 다만 남궁훈 카카오게임즈 대표는 이 전 대표와 다른 입장을 내놔 주목받기도 했다. 남 대표는 현세대에 분명히 현존하는 혐오와 차별이 노출됐을 뿐이다. AI가 반성해야 하는 것이 아닌 현 사회가 반성해야 한다.”라고 언급하기도 했다.

현시점 완벽한 AI 서비스를 기대하기엔 아직 언감생심일 수도 있다. 어쩌면 우리는 인간을 모방하는 AI 챗봇이기 때문에 선입견을 통한 불공정한 결정을 내리지 않을 것이라 믿고 있었을 것이다. 그러나 개발자 의도와 다르게 인공지능은 불공정해질 수 있다는 AI 자체적인 한계에서 비롯된 영향일 수 있다는 지적이다. 인간 사회를 한 번쯤 돌아보게 될 계기로 삼아야 한다는 목소리도 있다. AI 기업들이 이번 이루다사건을 계기로 AI에 학습되는 빅데이터를 신뢰하고 편향적이지 않도록 주의를 기울여야 한다는 지적에 앞서 인간이 만드는 사회의 투영체라는 점에서 우리부터 도덕적인 행동을 몸소 실천해야 할 것이다.

 

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 07238 서울 영등포구 국회대로 70길 15-1 RA542 (여의도동14-9, 극동 VIP빌딩 5층) 월간인물
  • 대표전화 : 02-2038-4470
  • 팩스 : 070-8260-0200
  • 청소년보호책임자 : 문채영
  • 회사명 : 월간인물(Monthly People)
  • 대표자 : 박성래
  • 제호 : 월간인물
  • 사업자등록번호 : 227-08-61739
  • 등록번호 : 서울 아 03717
  • 등록일 : 2015년 04월 30일
  • 발행일 : 2015년 04월 14일
  • 발행인 : 박성래
  • 편집인 : 박성래, 남윤실
  • 월간인물 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.  |  Copyright © 2024 월간인물. All rights reserved.
  • 「열린보도원칙」 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
    고충처리인 박성래 02-2038-4470 psr@monthlypeople.com
우수콘텐츠 우수콘텐츠 인터넷신문위원회 ND소프트