AGI 금지 외치는 사람들: STOP AI 단체는 누구인가

인공일반지능(AGI) 금지를 외치는 사람들

샌프란시스코의 실버톤 카페에서 인공지능의 발전을 막기 위한 계획을 논의하는 활동가들이 모였습니다. 이들은 “STOP AI”라는 단체의 회원들입니다. STOP AI는 인공일반지능(Artificial General Intelligence, AGI)을 금지하기를 원합니다. 대부분의 사람들이 생각하기에 아직 존재하지 않는 것을 금지하려는 것이죠. AGI는 “대부분의 경제적으로 가치 있는 일에서 인간보다 뛰어난 고도의 자율 시스템”으로 정의됩니다.

STOP AI의 목표

STOP AI는 웹사이트에 목표를 명확히 밝히고 있습니다. 예를 들어, “우리는 정부가 AI 기업들에게 범용 AI 모델 개발과 관련된 모든 것을 중단시키고, 기존의 모든 범용 AI 모델을 파기하며, 그 개발을 영구적으로 금지하도록 요구합니다.” 라는 내용이 있습니다. “STOP AI는 모든 AI를 금지하려는 것인가?”라는 질문에 대해, 이 단체는 “반드시 그런 것은 아니며, 단지 인류를 생존시키는 데 필요한 것만을 금지하려 한다”고 답합니다.

시위, 내부 고발자, 그리고 의문스러운 죽음

STOP AI는 2월 22일 토요일에 OpenAI의 샌프란시스코 본사 앞에서 또 다른 시위를 조직하고 있습니다. 이 계획에는 “Suchir를 위한 정의” 요구도 포함되어 있습니다. Suchir Balaji는 OpenAI의 전 직원으로, OpenAI의 저작권 침해 의혹과 관련하여 내부 고발자로 나서려다 2024년 11월 26일 샌프란시스코 아파트에서 사망한 채 발견되었습니다.

우리의 주요 요구는 인공일반지능(AGI) 개발을 영구적으로 금지하는 것입니다.

Balaji의 죽음은 원래 자살로 결론 내려졌지만, 당시에는 뒷받침하는 문서가 공개되지 않았습니다. 결정적인 증거가 없는 상황에서 소셜 미디어에서는 추측이 난무했습니다. 12월에 그의 부모는 사설 조사관을 고용하고 경찰의 조사 결과와 다른 두 번째 부검을 의뢰했다고 밝혔습니다.

샌프란시스코 카운티 검시관 보고서에서는 Balaji가 타살이 아닌 자살로 사망했다는 사실을 확인했습니다. 하지만 Balaji의 어머니인 Poornima Rao는 여전히 의혹을 제기하고 있습니다. 그녀는 소셜 미디어 게시물에서 “지난 금요일에 부검 보고서를 받았습니다. 변호사와 우리는 그들의 결정에 동의하지 않습니다. 그들의 결정에는 수많은 모순이 있습니다. 근본적인 가정은 보고서의 사실을 뒷받침하지 않습니다. 우리는 계속 조사를 진행하고 있습니다. 아파트에서 발견된 머리카락을 검사를 위해 보냈습니다. 우리는 정의를 위해 싸우고 있으며 물러서지 않을 것입니다.”라고 밝혔습니다.

종말에 대한 두려움

STOP AI의 공동 창립자인 Sam Kirchner는 인터뷰에서 “우리는 인공일반지능(AGI) 개발을 영구적으로 금지하려고 노력하고 있습니다. 대략적으로 말하면, 이는 모든 기술 분야에서 모든 인간 전문가보다 더 뛰어난 시스템을 의미합니다.”라고 말했습니다.

AI 분야의 저명한 인물인 Nick Bostrom이 향후 20년 이내에 AI가 인간 지능을 능가할 가능성이 50%라고 추정한 것을 인용하면서, Kirchner는 다른 AI 반대론자들과 마찬가지로 인류가 통제력을 잃을 수 있다고 우려합니다.

Kirchner는 “AI 분야의 전문가들은 우리가 그 시스템, 즉 초지능 시스템을 통제할 수 있다는 증거가 없으며, 그 시스템이 미래의 어느 시점에서 우리가 의도치 않게 지능이 낮은 종을 멸종시키는 것과 유사하게, 우리의 멸종으로 이어질 수 있는 것을 원하지 않을 것이라는 증거가 없다고 말합니다.”라고 덧붙였습니다.

이는 영화 터미네이터에 나오는 종말 시나리오와 비슷하지만, 악의적인 기계보다는 사고에 가깝습니다. Elon Musk는 2014년에 이를 “악마를 소환하는 것”이라고 표현하기도 했습니다.

AI, 한 번의 시위

Kirchner는 전반적인 목표로 미국 인구의 3.5%의 지지를 얻는 것이 목표라고 말합니다. 이는 변화를 위한 티핑 포인트라고 추정됩니다. 그는 “높은 수준의 목표는 AI에 대한 평화적인 시위에 미국 인구의 3.5%를 참여시키는 것입니다. 이는 1,100만 명이며 많은 것처럼 보입니다.”라고 말했습니다.

정치학자 Erica Chenoweth에 따르면, 그 정도의 규모는 폭압적인 정부를 전복시키거나 정치적 요구를 달성할 수 있다고 합니다. Kirchner는 “만약 그것이 이러한 기업들이 모든 사람의 생명을 위협하는 것을 막기 위해 필요한 것이라면, 우리는 그렇게 하려고 노력할 것입니다.”라고 말했습니다.

그는 또한 “현재 2024년에는 우리가 이야기하는 방법, 즉 비폭력 시민 저항, 예를 들어 도로 봉쇄 및 회사 사무실 바리케이드와 같은 방법을 사용하는 단체가 세계에 있습니다. 영국의 Just Stop Oil과 같은 단체입니다.”라고 덧붙였습니다.

“2024년에 그들은 영국 정부가 석유 회사에 더 이상 새로운 석유 및 가스 라이선스를 발급하지 않도록 요구하는 첫 번째 정치적 요구를 달성하는 데 성공했습니다. 그리고 그들은 영국 인구의 1% 미만이 시위에 참여한 상태에서 그렇게 했습니다.”

Kirchner는 OpenAI가 대부분 이 단체와 관계를 맺는 것을 피하려고 노력했지만, OpenAI가 구축하려는 것에 대해 우려를 공유한 회사 안전 팀의 한 구성원이 단체 구성원들과 시민적인 토론을 했다고 말했습니다.

STOP AI의 성장하는 전투

STOP AI는 현재 4명의 풀타임 멤버와 샌프란시스코 베이 지역에서 파트타임으로 돕는 약 15명의 자원봉사자를 보유하고 있습니다.

인공일반지능의 의미는 너무나 광대하고 위험해서 우리는 그것이 결코 일어나기를 원하지 않습니다.

주말에 실버톤 카페에서 열린 회의에서 Finn van der Velde는 AGI를 개발하는 회사는 존재해서는 안 된다고 주장했습니다. 그는 “인공일반지능의 의미는 너무나 광대하고 위험해서 우리는 그것이 결코 일어나기를 원하지 않습니다. 따라서 실제로 의미하는 바는 정부가 AGI를 구축하지 않기로 합의하는 국제 조약이 필요할 것입니다. 즉, AGI를 구축하는 목표를 가진 OpenAI와 같은 회사를 해체해야 합니다.”라고 말했습니다.

인접한 목표는 누구도 AGI 모델을 훈련할 수 없도록 컴퓨팅 성능을 규제하는 것입니다. Guido Reichstadter는 이러한 시스템이 감사하고 이해할 수 있는 방식으로 구축되지 않는 것이 문제라고 말했습니다.

AI에 대한 법적 책임이 중요한지 묻는 질문에 Reichstadter는 “필수적이지만 충분하지 않습니다. 왜냐하면 고려 범위 내에 있는 종류의 피해는 재앙적이고 실존적이기 때문입니다. 실존적 피해로부터 회복할 방법은 없습니다. 따라서 책임은 필수적이지만 매우 강력한 시스템, 특히 완전한 일반 인지 작업을 수행할 수 있는 시스템의 개발을 금지해야 합니다.”라고 답했습니다.

단체 구성원들은 대량 살상 무기 및 유독 화학 물질 외에 너무 위험하기 때문에 금지된 기술과 물질이 상대적으로 적다는 것을 알고 있습니다. Kirchner는 지뢰 금지 조약을 언급했지만, AGI를 금지하는 것은 힘든 싸움이 될 것이라고 인정했습니다.

위로 스크롤