네이버와 카카오가 사내 보안 관리 강화를 이유로 인공지능(AI) 에이전트 엔진 ‘오픈클로(OpenClaw)’ 사용을 제한하고 나섰다.

IT 업계에 따르면 두 회사는 최근 개발자를 포함한 임직원을 대상으로, 사내망 및 업무용 기기에서 오픈클로를 활용하지 말라는 내부 공지를 전달한 것으로 알려졌다.

오픈클로는 AI가 컴퓨터 화면의 정보를 인식하고 마우스와 키보드를 직접 조작해 사용자의 업무를 대신 수행하는 개방형(오픈소스) AI 에이전트 기술이다. 자동화 범위가 넓은 만큼, 보안 설정에 따라 정보 유출이나 시스템 접근 위험이 발생할 수 있다는 우려가 제기돼 왔다.

카카오 측 관계자는 “회사 정보 자산 보호 차원에서 사내망과 업무용 기기에서 오픈소스 AI 에이전트인 오픈클로(클로드봇, 몰트봇)의 사용을 제한한다는 공지를 했다”고 설명했다. 앞서 카카오는 중국 AI 모델 ‘딥시크’에 대해서도 개인정보 유출 및 사이버 보안 우려를 이유로 사용을 자제하도록 안내한 바 있다. 유사한 조치는 다수의 공공기관과 기업에서도 이뤄졌다.

생성형 AI에 대한 보안 우려는 이번이 처음은 아니다. 2023년 오픈AI의 챗GPT가 확산되던 당시에도 주요 기업들은 내부 정보 유출 가능성을 이유로 사내망에서 생성형 AI 사용을 제한하거나 금지한 바 있다. 업계에서는 이 같은 선례로 인해 삼성전자와 SK하이닉스 등 일부 기업은 오픈클로에 대해 별도의 공지를 내지 않은 것으로 전해진다.

해외에서도 유사한 움직임이 나타나고 있다. 외신에 따르면 중국 공업정보화부(MIIT)는 지난 5일(현지 시각), 오픈클로가 부적절하게 설정될 경우 사이버 공격과 데이터 유출 위험이 발생할 수 있다고 지적하며, 관련 서비스에 대해 신원 인증과 접근 제어 체계를 강화했다.

AI 에이전트 기술이 빠르게 확산되는 가운데, 기업들은 생산성 향상과 보안 리스크 사이에서 사용 기준을 보다 엄격하게 설정하는 분위기다.