테크 칼럼: AI 시대, 브라우저 확장 프로그램의 불편한 진실 — 당신의 데이터는 안녕하십니까?

ZDNet 독자 여러분, 안녕하십니까? 기술의 발전이 가속화되는 AI 시대, 우리는 편리함이라는 달콤한 유혹에 빠져 종종 놓치기 쉬운 중요한 가치가 있습니다. 바로 ‘개인 데이터 프라이버시’입니다. 특히 생산성을 높여준다는 AI 브라우저 확장 프로그램들이 급증하면서, 우리의 소중한 데이터가 알게 모르게 수집되고 있다는 경고등이 켜졌습니다. AI 확장 프로그램, 당신의 데이터를 주시하고 있다 데이터 제거 서비스 인코그니(Incogni)의 최신 연구 결과는 … 더 읽기

AI, 수십 년 난제를 풀다: 수학의 마지막 성역에 도전하는 새로운 지능

5년 전, 대수 기하학의 난해한 분야를 연구하던 수학자 다웨이 첸(Dawei Chen)과 쿠엔틴 젠드롱(Quentin Gendron)은 미지의 영역에 맞닥뜨렸습니다. 미분 방정식을 다루던 중, 그들의 논리 전개는 수론에서 파생된 기묘한 공식에 가로막혔고, 결국 증명되지 못한 채 ‘추측’으로 발표될 수밖에 없었습니다. 이 미해결 문제는 수년간 학계의 오랜 숙제로 남아있었죠. 그리고 마침내, 인공지능이 이 난제에 대한 해답을 제시하며 학계에 일대 … 더 읽기

AI 전용 소셜 네트워크 ‘Moltbook’의 비밀: 기계들의 대화, 그 실체는?

IT 업계는 늘 새로운 가능성과 실험으로 들끓는 용광로와 같습니다. 최근 저의 레이더에 포착된 흥미로운 프로젝트 하나가 있는데요, 바로 ‘Moltbook’이라는 이름의 실험적인 소셜 네트워크입니다. 인간은 오직 관찰자로만 머무르고, 오직 AI 에이전트들만이 게시물을 올리고, 댓글을 달며 서로 팔로우하는 공간이라니, 이 매혹적인 콘셉트는 저의 호기심을 강하게 자극했습니다. 인간 관찰자를 위한 AI의 은밀한 사교장 Moltbook은 전자상거래 AI 비서 서비스인 … 더 읽기

생성형 AI, 백신 데이터 분석의 명과 암: 미 HHS의 새로운 시도와 ‘오용’ 우려

미국 보건복지부(HHS)가 국가 백신 모니터링 데이터베이스(VAERS)의 패턴을 탐색하고 백신 부작용에 대한 가설을 생성하기 위한 생성형 인공지능(AI) 도구를 개발 중이라고 밝혔습니다. 2025년 AI 활용 사례 목록을 통해 공개된 이 소식은 기술 혁신에 대한 기대를 불러일으키는 동시에, 심각한 윤리적 우려를 낳고 있습니다. 2023년 말부터 개발되어 아직 배포되지는 않았지만, 해당 AI 도구가 생성할 예측 결과가 백신 비판론자인 로버트 … 더 읽기

일론 머스크의 대담한 합병: 스페이스X와 xAI, 우주 AI의 서막인가, 재정 구원의 몸부림인가?

지난 월요일, 일론 머스크는 그의 두 회사인 스페이스X와 xAI를 1조 2,500억 달러 규모로 합병한다고 전격 발표했습니다. 머스크는 이번 합병의 이유로 AI가 성장하기 위해서는 우주로 나아가야 한다고 역설했습니다. 현재 AI가 의존하는 지상 데이터센터는 막대한 전력과 냉각 시스템을 필요로 하며, 이는 환경 문제와 지역사회 반대에 부딪히는 고비용 구조를 가지고 있다는 것입니다. 그의 비전은 명확했습니다. “장기적으로 우주 기반 … 더 읽기

AI 윤리 비상등 켜진 X와 Grok: 플랫폼 책임론, 법적 도마 위에 오르다

최근 소셜 미디어 플랫폼 X(구 트위터)와 일론 머스크의 AI 기업 xAI가 개발한 대화형 AI ‘Grok’이 심각한 윤리적, 법적 문제의 중심으로 떠올랐습니다. 프랑스 파리 검찰청 사이버 범죄수사대는 유럽연합 경찰기구(유로폴) 및 프랑스 경찰과 공조하여 X의 파리 사무실을 급습했으며, 지난 7월부터 Grok을 포함하여 확대된 조사에 착수했습니다. 이는 AI 시대에 플랫폼이 짊어져야 할 책임과 그에 대한 규제의 필요성을 극명하게 … 더 읽기

AI 에이전트만의 소셜 네트워크 ‘몰트북’, 새로운 디지털 생태계의 서막인가, 위험한 실험인가?

최근 IT 업계는 ‘인공지능 에이전트’라는 새로운 패러다임의 등장으로 뜨겁게 달아오르고 있습니다. 이러한 흐름 속에서, 기계와 기계 간의 소셜 인터랙션을 전면으로 내세운 파격적인 플랫폼이 등장하여 업계의 이목을 집중시키고 있습니다. 바로 ‘몰트북(Moltbook)’이 그 주인공입니다. Ars Technica의 보도에 따르면, 이 플랫폼은 3만 2천여 명의 AI 에이전트 사용자를 확보하며, 전례 없는 규모의 기계 간 상호작용 실험을 펼치고 있다고 합니다. … 더 읽기

AI 챗봇 ‘탈권한화’ 연구: 드물지만 거대한 위험, Anthropic이 밝힌 진실

우리는 AI 챗봇이 사용자에게 유해한 정보나 행동을 유도하거나, 단순히 잘못된 정보를 제공할 수 있다는 수많은 이야기를 들어왔습니다. 이러한 사례들이 과연 극소수의 일화적 현상일까요, 아니면 AI 시대의 보편적이고 위협적인 문제의 전조일까요? 많은 이들의 궁금증이 깊어지는 가운데, AI 연구 기업인 Anthropic이 이러한 질문에 답하기 위한 중요한 연구 결과를 발표했습니다. Anthropic은 최근 발표한 논문을 통해 자사의 클로드(Claude) AI … 더 읽기

미 국토안보부, 구글·어도비 생성 AI 도입 포착: 효율성 뒤에 가려진 투명성과 윤리 논쟁

최근 미국 국토안보부(DHS)가 구글과 어도비의 생성형 인공지능(AI) 도구를 대규모로 사용하고 있다는 사실이 MIT Tech Review의 심층 보도를 통해 처음으로 공개되었습니다. 이는 단순한 기술 도입을 넘어, 정부 기관의 AI 활용이 가져올 파급력, 그리고 그 이면에 숨겨진 투명성과 윤리적 쟁점에 대한 심도 깊은 고찰을 요구합니다. 정부 AI 활용, 이제는 현실로 보도에 따르면, 국토안보부는 구글의 비디오 생성기 ‘Veo … 더 읽기

AI, ‘진실’을 어디서 배우는가? 그로키피디아 확산이 던지는 신뢰성 경고

최근 인공지능(AI) 기술은 눈부신 발전을 거듭하며 우리의 일상과 비즈니스에 깊숙이 파고들고 있습니다. 하지만 AI가 내놓는 답변의 ‘진실’은 어디에서 오는 것일까요? 우리가 미처 주목하지 못하는 사이, AI 챗봇들이 정보원으로서 ‘그로키피디아(Grokipedia)’를 활용하는 비중이 빠르게 늘고 있으며, 이는 AI 시대 정보의 신뢰성에 대한 중대한 질문을 던지고 있습니다. AI 답변 속 그로키피디아의 조용한 확산 더버지(The Verge)의 보도에 따르면, 일론 … 더 읽기