OpenAI의 새로운 AI 모델 Operator, 개인 비서의 진화와 그 한계

 

드디어 등장한 OpenAI의 새로운 AI 모델, Operator를 소개할게요. 이 모델은 여러분의 컴퓨터를 사용하고 웹을 탐색할 수 있는 기능을 가지고 있어요. 마치 여러분의 개인 비서처럼 작동한다고 생각하면 될 것 같아요.

Operator는 티켓 예약, 레스토랑 예약, 쇼핑 리스트 작성 같은 작업을 수행할 수 있도록 설계되었어요. 하지만 OpenAI는 이 모델이 일정 관리 같은 중요한 생산성 작업에서는 여전히 어려움을 겪고 있다고 인정했어요.

그런데 만약 여러분이 컴퓨터에서 잠시 떨어져서 AI가 모든 일을 처리해줄 거라고 생각한다면, 다시 생각해보는 게 좋겠어요. Operator는 중요한 작업을 수행하기 전에 항상 확인을 요청해야 하거든요. 이로 인해 AI가 여러분을 대신해 행동하는 것에 대한 전제가 흔들리게 되죠. 결국, AI가 실수를 하지 않도록 확인해야 한다는 점이죠.

OpenAI의 발표에 따르면, “중요한 작업을 완료하기 전에 Operator는 승인을 요청해야 한다”고 해요.

이런 조치는 AI 모델에 대한 엄격한 안전 장치를 유지하면서도 그들이 강력한 기능을 자유롭게 발휘할 수 있도록 하는 것 사이의 긴장을 보여줘요. 어떻게 모든 것을 할 수 있는 AI를 출시하면서도 실수를 하지 않도록 할 수 있을까요?

현재 Operator의 제한된 미리보기는 ChatGPT Pro 플랜 구독자에게만 제공되고 있어요. 이 플랜은 월 $200의 비용이 들어요.

이 AI 도구는 Computer-Using Agent라는 자체 AI 모델을 사용해 가상 환경과 상호작용해요. 즉, 마우스와 키보드 작업을 통해 여러분의 데스크탑 스크린샷을 지속적으로 캡처하는 방식이죠.

이 스크린샷은 GPT-4o의 이미지 처리 기능에 의해 해석되어, Operator가 보고 있는 소프트웨어를 사용할 수 있도록 해줘요. 하지만 실제로는 여러분이 기대하는 것처럼 매끄럽게 작동하지 않는 것 같아요. AI가 자주 막히면 사용자가 문제를 해결해야 하며, 사용자 이름과 비밀번호를 요청할 때는 “인수 모드”로 전환된다고 해요.

한 사용자는 ChatGPTPro 서브레딧에서 “너무 느리다”고 언급하며, AI가 명확히 도움이 필요할 때 도움을 요청하지 않는 점이 불만이라고 했어요. 실제로는 AI가 여러분의 컴퓨터를 탐색하는 모습을 지켜봐야 할 수도 있어요.

안전 조치는 중요하지만, 이 기술이 신뢰할 수 없으면 얼마나 유용할지 의문이 드네요. 그리고 만약 안전과 개인 정보 보호가 중요하다면, AI 모델이 여러분의 컴퓨터에서 자유롭게 돌아다니는 것에 대해 불안감을 느낄 수도 있어요. 특히 AI가 여러분의 데스크탑을 지속적으로 스크린샷으로 캡처해야 한다면 더욱 그렇죠.

OpenAI는 여러분이 AI 모델 훈련에 사용되는 데이터를 선택 해제할 수 있다고 하지만, 삭제한 채팅과 스크린샷은 최대 90일 동안 서버에 저장된다고 해요.

Operator가 웹을 탐색할 수 있다는 것은 다양한 위험에 노출될 수 있다는 의미이기도 해요. 예를 들어, 프롬프트 주입 공격 같은 것이 AI 모델이 원래의 지시를 무시하도록 유도할 수 있죠.

위로 스크롤