불과 10년 전만 해도 온라인에서 영향력 캠페인을 펼치려면 수많은 인력을 동원해 가짜 계정과 밈 팜을 운영해야 했습니다. 하지만 지금은 상황이 완전히 달라졌습니다. 고객 서비스 봇이나 튜터링 앱에 사용되는 바로 그 기술이 이제는 정치적 의견을 조작하고 특정 정부의 내러티브를 증폭시키는 데 활용될 수 있는 시대가 도래했습니다. IT 업계의 한 사람으로서, 필자는 이 변화가 단순한 기술 진보를 넘어 민주주의의 근간을 뒤흔들 수 있는 중대한 위협임을 직감하고 있습니다.
AI, ‘보이지 않는 손’으로 여론을 조작하다
과거의 캠페인이 거대한 조직과 인력을 필요로 했다면, 이제는 AI가 그 역할을 저렴하고, 더욱이 ‘보이지 않게’ 수행할 수 있게 되었습니다. 주목할 점은 이러한 설득 작업이 단순히 광고나 자동화된 전화에 그치지 않는다는 것입니다. 사람들이 매일 사용하는 소셜 미디어 피드, 언어 학습 앱, 데이팅 플랫폼, 심지어 음성 비서와 같은 일상적인 도구 속에 설득의 메시지가 교묘하게 심어질 수 있다는 사실입니다. 이는 악의적인 행위자가 인기 AI 도구의 API를 악용하거나, 처음부터 설득을 목적으로 설계된 새로운 앱을 통해 이루어질 수 있습니다. 필자의 생각에는 이러한 ‘소프트 설득’ 방식이 기존의 강압적인 방식보다 훨씬 더 위험합니다. 사용자가 자신이 설득당하고 있다는 사실조차 인지하지 못할 가능성이 높기 때문입니다.
- API(Application Programming Interface) : 서로 다른 프로그램이 대화할 수 있게 해주는 창구
100만 달러 미만으로 전 유권자 설득? 소름 끼치는 가성비
더욱 충격적인 것은 이러한 고도화된 설득 자동화가 ‘저렴하게’ 가능하다는 점입니다. 기사에 따르면, 100만 달러 미만의 비용으로 미국 내 모든 등록 유권자에게 개인화된 대화형 메시지를 생성할 수 있다고 합니다. 1인당 약 10번의 짧은 대화(약 2,700 토큰)를 ChatGPT API의 현재 요금으로 계산하면, 1억 7,400만 명의 유권자를 대상으로 하더라도 총비용은 100만 달러를 넘지 않습니다. 심지어 2016년 대선의 승패를 결정한 8만 명의 스윙 보터는 단 3,000달러 미만으로도 공략할 수 있다고 분석됩니다. 이는 선거 캠페인 비용의 효율성 측면에서 전례 없는 혁신이지만, 그 이면에는 민주주의를 왜곡할 수 있는 엄청난 잠재적 위험이 도사리고 있습니다. 전 세계 선거에서 공통된 문제이겠지만, 선거 규모가 크고 외세의 개입이 잦은 미국의 경우 그 파장은 특히 클 것입니다. 2026년 중간선거나 2028년 대선에서 누가 먼저 이 설득 자동화 기술을 선점하느냐에 따라 승패가 갈릴 수 있다는 경고는 결코 과장이 아닙니다.
- 스윙 보터 (Swing Voter) : 누구에게 투표할지 결정하지 못한 부동층 유권자
GPT-4, ‘설득 전문가’를 능가하는 능력 입증
일각에서는 AI가 선거에 미치는 위협이 과장되었다는 주장도 있었으나, 최근 연구 결과는 이러한 인식이 빠르게 변해야 함을 시사합니다. 최신 연구에 따르면, GPT-4는 미국의 극심한 정치적 주제에 대한 진술을 생성할 때 통신 전문가의 설득 능력을 능가하는 것으로 나타났습니다. 또한, 실제 유권자들과의 토론에서는 비전문가 인간보다 세 번 중 두 번은 더 설득력이 있다는 사실이 입증되었습니다. 이는 AI가 단순한 정보 전달을 넘어 인간의 감정과 이성에 직접적으로 호소하며 여론을 형성하고 변화시킬 수 있는 강력한 도구로 진화했음을 의미합니다. 이러한 연구 결과는 기술의 잠재력만큼이나 그 오용 가능성에 대한 깊은 우려를 갖게 합니다.
에디터의 시선
필자가 보기에 이 기술의 시사점은 단순히 선거 결과에만 국한되지 않습니다. 전통적인 매스 미디어 시대에는 메시지의 ‘확산’이 중요했지만, AI 시대에는 ‘개별 맞춤 공략(personalized micro-persuasion)’이 핵심이 될 것입니다. 이는 유권자 개개인의 성향, 약점, 관심사를 파악하여 최적화된 맞춤형 메시지를 끊임없이 전달함으로써, 유권자가 자신의 의지라고 착각하게 만들 수 있습니다. 이러한 방식은 유권자들이 스스로 정보를 찾고 합리적으로 판단하는 능력을 저하시켜, 결국 민주주의의 핵심 가치인 ‘자유로운 의사 형성’을 심각하게 훼손할 수 있습니다.
또한, AI 기반의 설득은 그 과정이 불투명하다는 점에서 더욱 위험합니다. 누가 어떤 목적으로, 어떤 AI를 사용해 어떤 메시지를 전달하는지 파악하기가 매우 어렵습니다. 이는 ‘보이지 않는 손’이 선거 결과를 조작할 수 있다는 섬뜩한 상상을 현실로 만들 가능성이 있습니다. AI 기술을 개발하고 서비스하는 기업들 또한 막중한 윤리적 책임감을 가져야 할 것입니다. API를 통해 악용될 가능성을 막기 위한 강력한 안전장치 마련이 시급합니다.
미래를 내다보면, 이 문제는 기술 개발 속도에 비해 규제와 사회적 합의가 턱없이 느리게 움직인다는 점에 있습니다. 미국 뿐만 아니라 전 세계 모든 민주주의 국가들은 AI의 정치적 악용 가능성에 대해 즉각적으로 대처해야 합니다. 투명성 확보, AI 시스템의 책임성 강화, 그리고 무엇보다 시민들의 디지털 리터러시 교육을 통한 비판적 사고 능력 함양이 절실합니다. 그렇지 않으면 미래의 선거는 유권자의 선택이 아닌, AI가 구축한 가장 정교하고 값싼 설득 캠페인을 펼친 쪽이 승리하는 냉혹한 게임이 될 수도 있습니다.
AI가 가져올 미래는 분명 밝은 면이 많습니다. 하지만 그 빛이 드리우는 그림자 또한 간과해서는 안 됩니다. 저렴하고 은밀하며, 더욱이 강력한 설득력을 지닌 AI는 민주주의의 심장부를 겨냥하고 있습니다. 기술 발전의 혜택을 누리면서도 그 부작용으로부터 사회를 보호하기 위한 우리의 집단적 지혜와 신속한 행동이 그 어느 때보다 필요한 시점입니다. 이 문제에 대한 지속적인 관심과 논의가 민주주의를 지키는 첫걸음이 될 것입니다.