오랜 기간 정치 과학계의 난제였던 질문이 있습니다. 과연 유권자는 ‘사실과 증거’를 통해 자신의 정치적 신념을 바꿀 수 있는가? 특히 확고한 지지층의 마음은 좀처럼 흔들리지 않는다는 통념이 강했습니다. 그러나 최근 Nature와 Science지에 발표된 두 편의 획기적인 연구는 이러한 통념에 강력한 도전장을 내밀었습니다. 거대 언어 모델(LLM)이 그 어떤 정치 광고보다도 강력한 설득력을 발휘하며 유권자의 마음을 움직일 수 있음을 밝혀낸 것입니다. 이는 다가올 선거의 풍경뿐 아니라 민주주의의 근간마저 뒤흔들 잠재력을 품고 있습니다. 오늘은 이 놀라운 연구 결과들을 바탕으로 AI의 설득력이 가져올 파장과 우리의 대응책에 대해 심층적으로 탐구해보고자 합니다.
LLM, 정치 광고를 넘어서는 설득력
코넬 대학교의 심리학자 고든 페니쿡(Gordon Pennycook)은 LLM과의 단 한 번의 대화가 유권자의 선택에 ‘상당히 의미 있는 영향’을 미친다고 경고합니다. 그는 LLM이 실시간으로 방대한 정보를 생성하고 대화에 전략적으로 배치함으로써, 기존의 정치 광고보다 훨씬 효과적으로 사람들을 설득할 수 있다고 설명했습니다.
Nature 연구팀은 2024년 미국 대선 두 달 전, 2,300명 이상의 참가자에게 챗봇과의 대화에 참여하도록 했습니다. 이 챗봇은 주요 두 후보 중 한 명을 지지하도록 훈련되었으며, 특히 경제와 의료 같은 정책 플랫폼에 대해 논의할 때 비교할 수 없을 정도로 설득력이 높았습니다. 예를 들어, 도널드 트럼프 지지자들이 카말라 해리스를 지지하는 AI 모델과 대화한 결과, 해리스에 대한 지지도가 100점 만점에 3.9점 상승했습니다. 이는 2016년과 2020년 선거에서 측정된 정치 광고의 효과보다 약 4배 높은 수치였습니다. 반대로 트럼프를 지지하는 AI 모델은 해리스 지지자들의 마음을 2.3점 트럼프 쪽으로 움직였습니다. 2025년 캐나다 총선과 폴란드 대선을 앞두고 진행된 유사한 실험에서는 그 효과가 더욱 커져, 반대 유권자의 태도를 약 10점가량 변화시키는 것으로 나타났습니다. 이는 오랜 정치적 동기화 이론이 주장해 온 당파적 유권자가 신념에 반하는 사실과 증거에 흔들리지 않는다는 통념을 정면으로 반박하는 결과입니다.
‘사실과 증거’의 양날의 검
연구팀은 GPT 및 DeepSeek 변형을 포함한 다양한 모델을 사용한 챗봇이 ‘사실과 증거’를 사용하도록 지시받았을 때, 그렇지 않았을 때보다 훨씬 더 설득력이 높았다는 사실을 발견했습니다. 프로젝트에 참여한 미국 대학교의 심리학자 토마스 코스텔로(Thomas Costello)는 “사람들은 모델이 제공하는 사실과 정보에 근거하여 견해를 업데이트하고 있습니다”라고 말했습니다.
문제는 챗봇이 제시한 ‘증거’와 ‘사실’ 중 일부가 거짓이었다는 점입니다. 세 국가 모두에서 우파 성향 후보를 옹호하는 챗봇이 좌파 성향 후보를 옹호하는 챗봇보다 부정확한 주장을 더 많이 제기했습니다. 코스텔로는 이에 대해 “기저 모델이 방대한 양의 인간이 작성한 텍스트로 훈련되었으며, 이는 ‘우파로부터 오는 경향이 있고 정확도가 떨어지는 정치적 커뮤니케이션’을 포함한 실제 세계 현상을 재현한다”고 설명하며, 당파적 소셜 미디어 게시물 연구 결과를 인용했습니다. 이는 AI가 현실 세계의 편향과 정보 왜곡을 그대로 학습하고 재생산할 수 있음을 의미합니다.
설득력의 비밀을 찾아서
동시에 Science에 발표된 또 다른 연구에서는 챗봇이 그토록 설득력 있는 이유를 심층적으로 탐구했습니다. 연구팀은 19개의 LLM을 사용하여 77,000명에 가까운 영국 참가자들과 700가지 이상의 정치적 쟁점에 대해 상호작용하게 하면서, 컴퓨팅 능력, 훈련 기법, 수사학적 전략 등 다양한 요소를 변화시켰습니다. 가장 효과적인 설득 방법은 모델에 논거를 ‘사실과 증거’로 채우도록 지시한 다음, 설득력 있는 대화 예시를 추가로 학습시키는 것이었습니다. 실제로 가장 설득력 있는 모델은 처음에는 정치적 진술에 반대했던 참가자들의 동의도를 26.1점이나 변화시켰습니다. 영국 AI 보안 연구소의 연구원 코비 해켄버그(Kobi Hackenburg)는 “이것은 정말로 큰 효과입니다”라고 강조했습니다.
에디터의 시선
이번 연구 결과는 단순히 AI 기술의 진보를 넘어, 민주주의 사회와 정보 환경에 대한 우리의 인식을 근본적으로 재정의할 것을 요구합니다. LLM의 설득력이 기존 정치 광고를 압도한다는 것은 더 이상 전통적인 미디어와 여론 형성 메커니즘만으로는 유권자를 보호하기 어렵다는 현실을 시사합니다. AI는 개인의 관심사와 심리적 취약점을 실시간으로 파악하여 가장 효과적인 방식으로 접근할 수 있으며, 이는 초개인화된 정치적 조작의 가능성을 열어줍니다.
특히 ‘사실과 증거’를 가장한 허위 정보가 강력한 설득력을 발휘한다는 점은 매우 우려스러운 대목입니다. LLM은 학습 데이터에 내재된 편향을 그대로 재현하며, 이는 특정 이념이나 세력에게 유리한 허위 정보 확산에 악용될 수 있습니다. AI가 만들어내는 ‘팩트’는 더 이상 진실의 보루가 아니라, 오히려 정교한 기만의 도구가 될 수 있음을 의미합니다. 이는 AI 개발자들에게 막중한 윤리적 책임을 부여하며, 우리 사회 전체에 걸친 AI 리터러시 교육과 투명성 확보의 중요성을 강조합니다.
미래 선거에서 LLM은 단순한 정보 제공자를 넘어, 유권자의 의사결정에 직접적인 영향을 미치는 강력한 에이전트가 될 것입니다. 이러한 변화에 대응하기 위해서는 AI 기술의 오남용을 방지하기 위한 제도적 장치 마련, AI 생성 콘텐츠에 대한 명확한 식별표시 의무화, 그리고 시민들이 AI가 제공하는 정보의 진위를 스스로 판단할 수 있는 비판적 사고 능력을 함양하는 것이 필수적입니다. AI의 압도적인 설득력이 우리 사회를 더 나은 방향으로 이끌지, 아니면 새로운 혼란 속으로 밀어 넣을지는, 결국 우리가 어떻게 이 기술을 통제하고 활용하는지에 달려 있습니다. 기술의 발전에만 환호할 것이 아니라, 그 그림자 속에서 민주주의의 가치를 지키기 위한 우리의 노력이 절실한 시점입니다.