스칼렛 요한슨, AI 생성 영상에 분노하다: “AI 악용은 개인의 혐오 발언보다 훨씬 큰 위협”
최근 할리우드 배우 스칼렛 요한슨(Scarlett Johansson)이 인공지능(AI) 기술의 악용에 대해 강한 우려를 표명했습니다. 익명의 사용자가 제작한 AI 생성 영상에서 요한슨이 카니예 웨스트(Kanye West)의 반유대주의적 발언을 비난하는 내용이 담긴 것이 발단이 되었어요.
AI, 혐오 발언의 도구로 전락하나
요한슨은 성명을 통해 “저는 반유대주의나 혐오 발언을 용납하지 않는 유대인 여성입니다. 하지만 AI에 의해 증폭된 혐오 발언의 가능성은 개인의 책임을 묻는 것보다 훨씬 더 큰 위협이라고 생각합니다.”라고 밝혔습니다. 그녀는 AI의 메시지가 무엇이든 간에 AI 오용을 지적해야 하며, 그렇지 않으면 현실과의 연결 고리를 잃을 위험이 있다고 경고합니다.
스칼렛 요한슨, AI 악몽은 이번이 처음이 아니다
요한슨은 AI 기술의 위험성에 대해 이미 뼈저린 경험을 한 적이 있습니다. 2023년 말, 그녀의 동의 없이 영화 “Her”에서 AI 연기를 할 때 사용했던 목소리와 유사한 AI 음성이 무단으로 사용된 사건이 있었죠. 당시 요한슨은 샘 알트만(Sam Altman) OpenAI CEO가 자신의 목소리와 너무나 흡사한 음성을 사용하려 한다는 사실에 충격과 분노를 느꼈다고 합니다. 심지어 그녀의 가까운 친구들과 언론조차도 그 차이를 구별하지 못할 정도였다고 해요.
법적 조치를 취하겠다는 요한슨의 강력한 항의에 알트만은 결국 해당 음성 사용을 “중단”했습니다. 이후 한 연구 결과에서는 요한슨의 목소리와 AI 음성 간에 압도적인 유사성이 있다는 사실이 밝혀졌습니다.
끊이지 않는 AI 악용, 해결책은 어디에
이처럼 AI 기술이 동의 없이 개인의 이미지를 사용하는 사례는 끊이지 않고 있습니다. 요한슨의 사례는 AI 기술의 발전과 함께 초상권 및 개인 정보 보호에 대한 심각한 우려를 제기하며, 이러한 문제에 대한 사회적 논의와 규제 마련이 시급함을 보여줍니다. 이러한 종류의 문제가 해결되지 않는 한, 요한슨과 같은 피해 사례는 계속 발생할 가능성이 높습니다.