최근 구글의 AI 오버뷰(AI Overviews) 서비스가 중요한 신뢰의 시험대에 올랐습니다. 영국의 가디언지 보도에 따르면, 구글의 AI 오버뷰가 일부 건강 관련 질의에 대해 오해의 소지가 있는 정보를 제공했고, 이에 구글이 해당 서비스 제거 조치를 취한 것으로 나타났습니다. 이는 인공지능이 제공하는 정보의 정확성, 특히 민감한 건강 분야에서의 책임감을 다시금 돌아보게 하는 계기가 되었습니다.
건강 정보 오류 논란과 구글의 대응
이번 논란은 가디언지가 ‘간 혈액 검사의 정상 범위는?’과 같은 건강 관련 질문에 대한 구글 AI 오버뷰의 답변이 국적, 성별, 민족, 연령 등 개인의 특성을 고려하지 않은 채 일반적인 수치만을 제시하여 오해를 불러일으킬 수 있다고 지적하면서 시작되었습니다. 이는 사용자가 자신의 건강 상태를 잘못 판단하게 만들 위험이 있었습니다.
보도 이후, 구글은 신속하게 ‘간 혈액 검사의 정상 범위’나 ‘간 기능 검사의 정상 범위’와 같은 특정 질의에 대한 AI 오버뷰를 검색 결과에서 제거한 것으로 알려졌습니다. 그러나 ‘lft 참고 범위’와 같은 변형된 질의에서는 여전히 AI 생성 요약이 나타났다는 점은 완벽한 해결책이 아니었음을 시사합니다. 필자가 직접 확인했을 때는 AI 오버뷰가 나타나지 않았지만, 이는 구글이 지속적으로 조치를 취하고 있음을 보여주는 대목입니다.
구글 대변인은 가디언지에 ‘검색 내 개별 삭제에 대해서는 언급하지 않지만 광범위한 개선을 위해 노력하고 있다’고 밝혔습니다. 또한, 내부 임상팀이 가디언지가 지적한 질의들을 검토한 결과 ‘많은 경우 정보가 부정확하지 않았으며, 고품질 웹사이트에 의해 뒷받침되었다’고 해명했습니다. 그러나 ‘고품질 웹사이트’의 정보도 AI가 맥락 없이 취사선택할 경우 오용될 수 있다는 근본적인 문제를 간과해서는 안 될 것입니다.
에디터의 시선: AI 윤리와 책임의 중대한 기로
이번 사건은 AI가 우리의 삶에 깊숙이 들어오는 과정에서 반드시 짚고 넘어가야 할 윤리적, 기술적 과제를 명확히 보여주고 있습니다. 특히 건강 정보와 같이 사용자의 생명과 직결될 수 있는 민감한 영역에서는 AI의 ‘편의성’보다 ‘정확성’과 ‘책임감’이 최우선되어야 합니다.
영국 간협회(British Liver Trust)의 커뮤니케이션 및 정책 이사인 바네사 헵디치(Vanessa Hebditch)는 AI 오버뷰의 제거를 ‘매우 훌륭한 소식’으로 환영하면서도, ‘단일 검색 결과를 문제 삼는 것은 지엽적인 해결책이며, 건강 관련 AI 오버뷰의 더 큰 문제에 대처하는 것이 아니다’라고 일침을 가했습니다. 그녀의 지적처럼, 구글의 이번 조치는 특정 오류에 대한 미봉책일 수 있으며, AI가 제공하는 건강 정보 전반에 대한 시스템적인 신뢰 문제를 해결하는 데는 아직 갈 길이 멀다고 판단됩니다.
인사이트를 제공해야 할 AI가 오히려 오해를 불러일으킨다는 것은 아이러니가 아닐 수 없습니다. AI 모델은 방대한 데이터를 학습하지만, 인간의 복잡한 상황과 미묘한 맥락을 완벽히 이해하는 데는 한계가 있습니다. 특히 의학적 정보는 ‘이렇다’고 단정하기 어려운 개인차가 크고, 시시각각 변하는 연구 결과에 따라 업데이트되어야 합니다. AI가 이러한 복잡성을 스스로 판단하고 반영하기란 현재로서는 매우 어렵습니다.
이번 사건은 구글을 비롯한 모든 AI 개발 기업에게 중요한 경종을 울리고 있습니다. 단순히 ‘더 많은 정보’를 제공하는 것을 넘어, ‘더 정확하고, 책임감 있으며, 윤리적인 정보’를 제공하기 위한 기술적, 정책적 노력이 병행되어야 합니다. 또한, 사용자 역시 AI가 제공하는 정보를 맹신하기보다, 중요한 결정 특히 건강과 관련된 정보는 반드시 전문가의 자문을 구하고 교차 검증하는 습관을 들여야 할 것입니다. AI는 유용한 도구이지만, 그 한계를 명확히 인지하고 현명하게 활용하는 것이 곧 디지털 시대의 새로운 지혜가 될 것입니다.