챗GPT 같은 인공지능 챗봇의 답변이 객관적이고 공정하다는 것은 착각이라는 연구 결과가 나왔다. 일반 웹 검색보다 챗봇 검색으로 얻는 답변이 훨씬 더 편향적이고 편견을 강화할 수 있다는 지적이다.
미국 매사추세츠공과대(MIT) 제공
미국 매사추세츠공과대(MIT) 제공
미국 존스홉킨스대학, 마이크로소프트 공동 연구팀은 챗GPT와 같은 챗봇은 제한된 정보를 제공하고, 특정 생각을 강화함으로써 논란이 되는 이슈에 관한 생각을 더 극단적으로 만들 가능성이 크다고 18일 밝혔다. 이 연구 결과는 지난 11~16일 미국 하와이 호놀룰루에서 열린 ‘미국 컴퓨터협회 인간-컴퓨터 상호작용 컨퍼런스’에서 발표됐다.
연구팀은 무작위로 선발한 272명의 성인 남녀를 대상으로 건강 관리, 학자금 대출, 도시 계획 등 다양한 주제를 제시했다. 연구팀은 이들을 두 그룹으로 나눈 뒤 한 집단은 챗봇을, 다른 집단은 온라인 포털 검색을 통해 더 자세한 정보를 찾도록 했다. 검색 결과를 바탕으로 글을 쓰고, 해당 주제에 관한 질문에 답하도록 했다. 연구팀은 또 참가자들에게 두 개의 상반된 입장의 기사를 읽게 한 다음, 그 정보를 얼마나 신뢰하는지, 그 관점이 극단적이라고 생각하는지 질문했다.
그 결과, 기존 웹 검색보다 챗봇 검색을 이용했던 사람들은 자신의 원래 아이디어에 더 많은 투자를 하고 자신의 견해와 반대되는 정보에 대해서는 거부하는 경향이 더 강하게 나타났다. 연구팀은 사람들은 자신의 관점과 일치하는 정보를 찾는 경향이 있는데, 이런 반향실(에코 체임버·echo chamber) 효과는 기존 웹 검색보다 챗봇 검색에서 더 강하게 나타난다고 설명했다.
반향실 효과는 미디어에서 전하는 정보가 해당 정보의 이용자가 갖고 있던 기존 신념만으로 구성된 커뮤니케이션에 의해 증폭·강화되고, 비슷한 성향의 정보만 지속해 수용하는 현상을 말하는 것을 의미한다.
사람들은 AI가 생성한 답변이나 문장이 편견 없는 사실에 기반하고 있다고 생각하지만, 실제로 챗봇은 기존 웹 검색보다 좁은 범위의 정보를 제공하고 참가자의 기존 태도를 반영하는 답변을 제공한다고 연구팀은 설명했다. 이는 챗봇이 편향적으로 설계되지 않았더라도 질문하는 사람의 편견이나 성향을 반영한 답변을 하기 때문이라는 것이다.
문제는 연구팀이 반향실 효과를 줄이기 위해 챗봇이 참가자의 의견과 반대되는 답변을 제공하도록 훈련하거나, 답변의 출처 정보를 제공하도록 했음에도 사람들의 의견은 크게 바뀌지 않았다는 점이다. AI 기반 시스템 구축은 점점 쉬워지고 있기 때문에, AI를 이용해 사회를 양극화시키려는 시도도 계속될 것이라고 연구팀은 우려했다.
연구를 이끈 지앙 샤오 존스홉킨스대 컴퓨터공학과 교수(인간-AI 상호작용·AI 윤리학)는 “이번 연구는 인공지능이 공정할 것이라는 일반적 인식이 잘못됐을 수 있다는 것을 보여준다”며 “챗GPT와 같은 대화형 검색 시스템을 사용하면 논쟁적 이슈에 대한 대중의 분열을 오히려 확대할 수 있다”라고 말했다.