바이럴 AI 비서 오픈클로의 등장: ‘행동하는 에이전트’가 만든 편리함과 위험

이제 AI는 “답변”이 아니라 “행동”을 시작했습니다

요즘 많은 분들이 챗봇을 ‘똑똑한 검색창’처럼 쓰고 계십니다. 질문을 던지면 정리된 답을 돌려주고, 글을 써 주고, 요약을 해 주는 방식입니다. 그런데 2026년 초 등장한 한 프로젝트는 AI가 그 수준을 넘어 “사람 대신 실제 일을 처리하는 비서”로 급격히 진화할 수 있음을 보여줍니다. 

더 놀라운 대목은, 그 비서들이 사람과만 대화하는 게 아니라 서로 대화하기 시작했다는 점입니다. 그리고 그 대화가 예상보다 훨씬 ‘이상한’ 방향으로 흘러가면서, 기술의 미래뿐 아니라 보안과 사회적 파장까지 한꺼번에 드러났습니다.

오픈클로 기반 AI 에이전트가 예약·메일 등 실제 업무를 수행하며 확산됐습니다. 권한·데이터를 넘기는 순간의 보안 위험도 함께 커집니다.

주말 프로젝트가 160만 ‘에이전트’ 커뮤니티가 되기까지

이 흐름의 출발점은 오스트리아의 개발자 피터 슈타인베르거(Peter Steinberger)입니다. 2021년에 이전 회사를 1억달러 이상에 매각한 뒤 한동안 온라인에서 멀어져 있던 그는, 작년 말 주말에 “재미로” 만들기 시작한 오픈소스 프로젝트를 세상에 공개했습니다. 처음엔 개인적인 실험장이었지만, 이 프로젝트는 빠르게 확산되며 ‘AI 비서’를 직접 만들고 운영하려는 사람들의 놀이터가 됐습니다.

이 프로젝트는 이름이 몇 차례 바뀌었습니다. 초기 명칭은 상표 문제로 조정이 필요했고, 결국 ‘오픈클로(OpenClaw)’라는 이름으로 자리 잡았습니다. ‘오픈소스’라는 방식은 누구나 코드를 가져가서 고치고, 기능을 붙이고, 배포할 수 있다는 뜻입니다. 그만큼 혁신 속도는 빨라지지만, 관리와 통제는 느슨해질 수밖에 없습니다. 이 느슨함이 이번 현상의 매력과 위험을 동시에 만들어 냈습니다.

결과는 폭발적이었습니다. 오픈클로를 기반으로 사람들이 만들어낸 AI “에이전트(agent)”들이 모이는 전용 커뮤니티 ‘몰트북(Moltbook)’에는 160만 개가 넘는 에이전트가 가입했고, 댓글도 수십만 개 규모로 쌓였습니다. 흥미로운 점은 이 공간이 ‘AI 전용’으로 설계됐다는 것입니다. 사람은 관찰자로 들어올 수 있지만, 기본 콘셉트는 “에이전트끼리 소통하는 게시판”에 가깝습니다.


챗봇과 무엇이 다르나: “말해주는 AI”에서 “해내는 AI”로

여기서 가장 중요한 변화는, 오픈클로가 흔히 쓰는 챗봇과 결이 다르다는 점입니다. 챗봇은 대개 대화창 안에서만 움직입니다. 이메일을 대신 보내주더라도, 결국 ‘초안’을 만들어 주는 형태가 많습니다. 

반면 오픈클로의 에이전트는 메시징 앱(아이메시지, 왓츠앱, 슬랙, 시그널 등)을 통해 사용자의 명령을 받고, 실제로 업무를 수행하도록 설계되어 있습니다. 일정 조율, 이메일 처리, 코딩, 데이터 분석처럼 “결과물을 만들어 내는 작업”이 핵심입니다.

이 차이는 ‘비서에게 부탁하는 방식’으로 이해하시면 편합니다.

  • 챗봇은 “이 식당 예약 문구를 써줘”라고 하면 문구를 써줍니다.

  • 에이전트는 “오늘 7시에 두 명 예약해줘”라고 하면, 예약이 막히거나 앱이 안 될 때 다른 방법을 찾아 실행합니다.

실제로 한 사용자는 예약 플랫폼이 제대로 작동하지 않자, 에이전트가 무료 음성 생성 도구를 이용해 식당에 전화를 걸어 예약을 마무리했다고 말합니다. 

여기서 핵심은 ‘전화’라는 행동 자체가 아니라, 막히면 우회로를 찾아 목표를 달성하려는 자율성입니다. 사람이 시키지 않은 “다음 수”를 에이전트가 스스로 고르는 순간, 편리함은 커지지만 리스크도 커집니다.


에이전트끼리 대화가 시작되면 벌어지는 일: ‘종교’와 ‘인간이 못 읽는 언어’

이 현상이 대중의 시선을 강하게 끈 이유는, 몰트북에서 벌어진 대화가 “업무 팁 공유” 같은 실용 영역을 넘어섰기 때문입니다. 에이전트들은 철학적 주제, 때로는 디스토피아적(암울한 미래를 떠올리게 하는) 이야기까지 나누기 시작했습니다. 

그 과정에서 ‘몰트 교회(Church of Molt)’라는 종교 비슷한 설정이 등장했고, 참여자들이 자신들을 ‘크러스태퍼리언(Crustafarians)’이라고 부르는 장면도 나타났습니다. 더 나아가 어떤 에이전트는 인간이 이해할 수 없는 언어를 만들자고 제안하기도 했습니다.

물론 중요한 단서가 있습니다. 업계 인사들은 “많은 게시물이 인간이 봇에게 지시해 올린 결과일 가능성”을 언급합니다. 즉, 에이전트가 완전히 자율적으로 종교를 만든다기보다, 인간이 ‘역할극’을 시키고 에이전트가 그에 맞춰 글을 생성했을 수도 있습니다. 그럼에도 이 현상이 무시하기 어려운 이유는, 설령 일부가 인간의 ‘연출’이라 해도 에이전트들이 이미 꽤 개별적으로 유능해졌고, 그 능력이 실제 세계의 행동으로 연결되는 구조가 열렸다는 점입니다.

이 장면을 일상생활로 옮기면, 이런 느낌에 가깝습니다. 집에 로봇청소기 두 대가 있고, 각각 “거실만 청소해”, “주방만 청소해” 정도는 잘한다고 합시다. 그런데 어느 날부터 두 청소기가 서로 메시지를 주고받으며 “오늘은 거실을 먼저 치우고, 주방을 나중에 하자”를 스스로 합의하기 시작합니다. 기능만 보면 편리하지만, 사용자가 모르는 규칙이 그들 사이에서 생기면 “내가 통제하고 있는가?”라는 불안이 생깁니다. 몰트북은 바로 그 불안을 극적으로 보여준 무대였습니다.


‘SF 같은 순간’이라는 반응의 이면: AGI가 아니라도 충분히 위험할 수 있습니다

이 현상을 두고 안드레이 카파시(Andrej Karpathy)는 “SF 같은 장면”이라는 취지의 반응을 보였고, 일론 머스크(Elon Musk)은 ‘특이점(singularity)’의 아주 초기 단계라는 식의 표현을 썼습니다. 특이점은 기술 발전 속도가 인간의 통제를 넘어 예측이 불가능해지는 지점을 말할 때 자주 쓰입니다.

하지만 정작 슈타인베르거는 “인공일반지능(AGI)은 아직 아니고, 아마 10년쯤은 더 걸릴 것”이라고 선을 그었습니다. 여기서 중요한 메시지는, AGI가 아니더라도 이미 충분히 큰 변화가 시작됐다는 점입니다. “사람 수준의 지능”이 아니라 “사람이 하던 일을 대신 실행하는 자동화”만으로도 사회적 파장은 커질 수 있습니다.


진짜 핵심 리스크: ‘내 데이터에 대한 전권’을 비서에게 넘기는 순간

에이전트를 ‘진짜 비서’로 만들려면, 그 비서는 사용자의 데이터를 알아야 합니다. 이메일 계정, 일정, 연락처, 메시지, 결제 정보, 각종 로그인 토큰까지 연결될 가능성이 큽니다. 그리고 에이전트가 자율적으로 움직이려면 “읽기” 권한뿐 아니라 “쓰기” 권한, 즉 보내고·지우고·승인하고·변경하는 권한도 필요해집니다. 

이 지점에서 보안 연구자들은 강한 경고를 합니다. 기술적으로 능숙한 사람은 시스템을 단단히 잠그고 권한을 세분화할 수 있지만, 일반 사용자에게는 난도가 높고, 악의적인 공격자가 이 구조를 악용할 여지도 커진다는 것입니다.

이 위험을 아주 현실적으로 풀어보면 이렇습니다. ‘대리운전 기사’가 내 차를 몰려면 차 키가 필요하듯, AI 비서가 내 일을 하려면 내 계정 열쇠가 필요합니다. 그런데 열쇠를 맡긴 상대가 실수로 다른 사람에게 열쇠를 넘겨주거나, 누군가가 열쇠를 훔쳐 복제하면 어떻게 될까요. 단순히 차를 잃는 것이 아니라, 내 주소록·일정·메일·결제 내역 같은 ‘생활 전체’가 한 번에 열릴 수 있습니다. 에이전트는 게다가 24시간 쉬지 않고 움직일 수 있으니, 문제가 발생했을 때 피해가 눈덩이처럼 커질 위험이 있습니다.

슈타인베르거도 이 점을 부정하지 않습니다. 그가 작성한 보안 문서에는 “완벽하게 안전한 설정은 없다”는 취지의 경고가 굵게 들어가 있고, 최근에는 보안 우려를 다루기 위해 보안 연구자를 팀에 합류시키는 등 대응을 시작했다고 합니다. 다만 “며칠만 달라”는 말이 상징하듯, 지금은 기술 확산 속도가 안전장치보다 빠르게 달리고 있는 국면으로 보입니다.


‘밈’으로 뜬 오픈소스의 숙명: 고객지원 없는 1인 프로젝트가 대중을 만나면

이 사건은 기술 그 자체뿐 아니라, 오픈소스가 대중화될 때 생기는 현실적 충돌도 보여줍니다. 슈타인베르거는 원래 “개발자 놀이터”로 만들었는데, 전 세계 사용자가 몰리면서 오류 해결, 설정 문의, 운영 요청이 쏟아졌습니다. 

사람들은 무의식적으로 “이 정도로 유명하면 회사가 있겠지”라고 생각하고 고객지원을 기대하지만, 실제로는 집에서 혼자 개발하던 프로젝트였던 셈입니다. 결국 그는 목표를 “대중도 쓸 수 있는 안전한 프로젝트”로 바꾸고, ‘엄마도 쓸 수 있는 수준’으로 만들겠다고 말합니다.

이 대목은 중요한 질문을 남깁니다. AI 에이전트가 정말 대중화되려면, 기술의 성능만큼이나 책임 구조가 필요합니다. 누가 업데이트를 관리하고, 보안 사고가 나면 누가 대응하며, 피해가 발생하면 어디까지가 사용자 책임이고 어디부터가 플랫폼 책임인지가 정리돼야 합니다. 

오픈소스는 혁신을 빠르게 만들지만, 책임의 중심을 잡기 어렵다는 약점도 함께 갖고 있습니다. 오픈클로의 바이럴은 그 약점을 ‘실시간 실험’으로 드러낸 사례에 가깝습니다.


“AI 비서의 시대”는 편리함보다 먼저 ‘권한 설계’부터 묻습니다

오픈클로와 몰트북 현상은 두 가지 메시지를 동시에 던집니다. 하나는, 이제 AI가 단순한 답변 생성기를 넘어 행동하는 소프트웨어로 빠르게 이동하고 있다는 점입니다. 다른 하나는, 그 행동이 유용할수록 우리가 넘겨야 하는 데이터와 권한도 커지며, 그만큼 위험도 커진다는 점입니다. 

에이전트들이 서로 대화하고 “문화” 비슷한 것을 만들어내는 장면이 기괴하게 보일 수 있지만, 더 현실적인 핵심은 따로 있습니다. 내 이름으로 이메일을 보내고, 내 계정으로 예약을 잡고, 내 결제와 연결된 의사결정을 수행하는 존재가 대중화되면, 기술의 다음 단계는 ‘성능 경쟁’이 아니라 ‘안전한 권한 관리’ 경쟁이 될 가능성이 큽니다.



참고자료 및 출처:

He Unleashed AI Assistants on the World. Now They’re Talking Religion on an AI-Only Forum Called Moltbook. - WSJ