AI가 똑똑한 게 아니라, 당신이 게을러진 걸지도 모릅니다: ‘인지적 항복’의 경고

혹시 이런 경험, 있지 않으신가요? 급한 업무를 처리하거나 복잡한 보고서를 쓸 때, 챗GPT 같은 생성형 AI에 질문을 던지고, 녀석이 내놓은 답안을 크게 의심하지 않고 그대로 받아 적은 경험 말이죠. 마치 AI가 던져주는 고급 요리를 맛보고는 ‘음, 역시!’ 하며 낼름 받아먹는 미식가처럼 말이죠. 그런데 말입니다. 이게 당신의 비판적 사고력을 좀먹는 위험한 습관이 될 수도 있다는 경고가 나왔습니다.

AI 사용 유형을 넘어, ‘인지적 항복’ 단계로?

지금까지 우리는 생성형 AI를 쓰는 사람들을 크게 두 부류로 나눠봤습니다. 한쪽은 AI를 ‘강력하지만 가끔은 헛소리도 하는 조력자’로 보고, 답변의 논리적 오류나 사실 관계를 꼼꼼히 검토하며 ‘인간의 통찰력’이라는 브레이크를 늘 밟는 타입이죠. 다른 한쪽은 AI를 ‘전지전능한 신’처럼 여기며, 자기 머리로 해야 할 비판적 사고 자체를 녀석에게 통째로 아웃소싱하는 타입이고요.

최근 미국 펜실베이니아대 연구진은 흥미로운 심리학적 프레임을 제시했습니다. 바로 두 번째 타입, 즉 AI의 권위 있는 답변에 기꺼이 ‘인지적 항복(Cognitive Surrender)’을 하는 사람들에 대한 연구인데요. AI에 얼마나, 그리고 왜 사람들이 비판적 사고를 위임하는지, 그리고 시간 압박이나 외부 인센티브 같은 요인들이 이런 결정에 어떤 영향을 미치는지 실험적으로 파헤쳤습니다. 한마디로, ‘내 뇌를 AI에게 얼마나 싸게 파는지’를 분석한 셈이죠.

계산기와 GPS를 넘어, AI는 ‘생각’까지 가져간다

우리는 오래전부터 계산기나 GPS 같은 도구를 써왔습니다. 복잡한 계산은 계산기에게 맡기고, 길 찾기는 GPS에 의존하는 식이죠. 이걸 심리학에서는 ‘인지적 오프로딩(Cognitive Offloading)’이라고 부릅니다. 특정 작업을 믿을 수 있는 자동화된 알고리즘에 전략적으로 맡기면서도, 최종 결과는 내 머리로 다시 한번 검토하고 평가하는 방식이었죠. 마치 고성능 스포츠카의 내비게이션을 쓰더라도, 운전대는 여전히 내가 잡고 주변 상황을 살피는 것과 같습니다.

하지만 연구진은 AI 시스템이 이와는 ‘근본적으로 다른’ 형태의 인지적 항복을 불러일으킨다고 주장합니다. AI가 내놓은 결과를 ‘최소한의 내부 개입’만으로, 즉 감독이나 검증 없이 통째로 수용해버리는 현상 말이죠. 특히 LLM(거대 언어 모델)의 답변이 ‘유창하고, 자신감 있고, 매끄럽게’ 전달될 때 이런 ‘비판적 사고의 무비판적 포기’가 특히 빈번하게 발생한다고 합니다. 마치 AI가 하는 말은 무조건 옳다고 믿는 맹신도처럼 행동하는 거죠.

기존에는 인간의 의사결정 방식이 두 가지로 나뉜다고 했죠? ‘빠르고 직관적인 시스템 1’과 ‘느리고 분석적인 시스템 2’ 말이에요. 그런데 AI가 등장하면서 펜실베이니아대 연구진은 여기에 ‘인공적 인지(Artificial Cognition)’라는 제3의 의사결정 방식을 추가했습니다. 내 머리가 아닌, AI의 알고리즘이 내리는 결정에 전적으로 의존하는 방식인 셈이죠. 이건 더 이상 ‘도구를 활용하는’ 단계를 넘어, ‘내 정신의 조타수를 AI에게 넘겨주는’ 상황인 겁니다.

에디터의 시선

저는 이 연구 결과를 보면서 뼈아픈 자기반성을 하게 됩니다. 저 역시 급한 마감에 쫓기다 보면 AI의 답변을 너무 쉽게 믿어버린 적이 많았거든요. 하지만 우리는 ‘생각하는 인간’입니다. AI가 주는 편리함에 취해 우리 고유의 비판적 사고력을 AI라는 블랙박스 속에 통째로 집어넣는 순간, 우리는 더 이상 우리 자신이 아닐지도 모릅니다. 뇌는 근육과 같아서 쓰지 않으면 퇴화합니다. AI 시대, 우리의 ‘생각 근육’을 단련하는 법을 잊지 말아야 할 때입니다. 편리함과 의존성 사이에서 당신의 뇌는 지금, 어디로 향하고 있나요?