본문 바로가기
반주부

AI 기반 대학살 현실화: 이스라엘의 Lavender 시스템과 37,000 표적 논란

by wonyouju1004 2025. 6. 11.
728x90
반응형
SMALL

 

 

최근 몇 달 동안 이스라엘 국방군(IDF)이 가자지구에서 인공지능(AI)을 활용해 하마스와 팔레스타인 이슬람 지하드(PIJ)와 연계된 37,000명의 표적을 식별했다는 보도가 주목받고 있습니다. The Guardian(이스라엘 AI 타격 보도)과 +972 Magazine(Lavender AI 시스템)는 이스라엘이 'Lavender'라는 AI 시스템을 사용해 대규모 표적 리스트를 생성했다고 주장했습니다. 그러나 IDF는 이러한 주장이 “근거 없는” 것이라며 강력히 부인하고 있습니다(IDF 공식 반박). 이 논란은 AI의 군사적 활용, 민간인 피해, 그리고 국제 인도법 준수 여부에 대한 심각한 질문을 제기합니다.

Lavender 시스템이란?

Lavender는 IDF의 엘리트 정보 부대인 Unit 8200에서 개발한 AI 기반 데이터베이스입니다. 이 시스템은 하마스와 PIJ와 연계된 개인을 식별하기 위해 대량의 데이터를 신속히 처리하도록 설계되었습니다. 보도에 따르면, Lavender는 90%의 정확도를 달성했으며, 최대 37,000명의 팔레스타인 남성을 하마스 또는 PIJ와 연계된 잠재적 표적으로 분류했습니다(Wikipedia).

그러나 IDF는 Lavender가 표적을 자동으로 지정하는 시스템이 아니라, 정보 분석가가 데이터를 교차 참조하는 데 사용하는 도구일 뿐이라고 주장합니다. 인간 분석가가 각 표적을 국제법과 IDF 지침에 따라 독립적으로 검증한다고 강조합니다.

논란의 기원: 보도 내용

The Guardian과 +972 Magazine의 조사에 따르면, Lavender는 하마스와 PIJ의 저급 무장 세력을 포함한 37,000명의 표적을 식별하는 데 사용되었습니다. 이 표적들은 종종 비정밀 무기(“멍청한 폭탄”)를 사용한 공습으로 타격을 받았으며, 이는 상당한 민간인 피해를 초래했습니다. 보도에서는 IDF가 저급 무장 세력을 타격할 때 15~20명의 민간인 사망을, 고위급 인물을 타격할 때는 100명 이상의 민간인 사망을 허용하는 정책을 채택했다고 주장합니다.

이러한 정책은 국제사회에서 큰 논란을 불러일으켰습니다. 하마스 운영 보건 당국은 지난 6개월 동안 가자지구에서 33,000명의 팔레스타인 사망자를 보고했으며, 유엔 데이터에 따르면 첫 달 동안 1,365개의 가족이 여러 명의 가족 구성원을 잃었고, 312개의 가족은 10명 이상을 잃었습니다([1]). 일부 전문가는 이러한 공격이 국제 인도법의 원칙(군사적 필요성, 비례성, 민간인과 전투원 구분)을 위반할 수 있다고 비판했습니다.

항목세부 내용
AI 시스템 Lavender
개발자 IDF Unit 8200
표적 수 37,000명 (하마스 및 PIJ 연계 추정)
정확도 90% (보도에 따르면)
민간인 피해 허용 저급 무장 세력: 15~20명, 고위급 인물: 100명 이상
사용 무기 비정밀 무기 (“멍청한 폭탄”)
사망자 수 하마스 보건 당국: 33,000명 (6개월)
유엔 데이터 1,365개 가족 피해, 312개 가족 10명 이상 사망

IDF의 반박

IDF는 Lavender를 사용해 37,000명의 “킬 리스트”를 생성했다는 주장을 강력히 부인했습니다. 그들은 Lavender가 테러리스트를 예측하는 AI 시스템이 아니라, 정보 분석을 지원하는 데이터베이스일 뿐이라고 밝혔습니다. IDF는 모든 표적 식별 과정에서 다양한 도구와 방법을 사용하며, 분석가가 국제법과 IDF 지침에 따라 표적을 개별적으로 검증한다고 주장합니다(IDF 반박).

IDF는 또한 하마스가 민간인을 인간 방패로 사용하고, 주거지, 병원, 학교, 모스크, 유엔 시설 등 민간 지역에서 작전을 수행한다고 비판했습니다. 이는 표적 식별과 타격 과정을 복잡하게 만든다고 설명했습니다. IDF는 군사적 이익과 민간인 피해를 비교 평가하며, 과도한 피해가 예상되는 타격은 실행하지 않는다고 강조했습니다.

윤리적 및 법적 비판

Lavender의 사용은 AI의 군사적 활용에 대한 윤리적, 법적 논쟁을 촉발시켰습니다. 유엔 사무총장 안토니오 구테흐스는 이 문제에 대해 “깊이 우려”를 표명했으며, 일부 전문가는 이를 “AI 기반 학살”로 묘사했습니다(유엔 반응). 법학자 벤 사울은 많은 공격이 전쟁 범죄로 간주될 수 있다고 주장했으며, 이는 군사적 필요성, 비례성, 민간인 보호 원칙을 위반할 가능성을 시사합니다.

AI 시스템은 인간의 판단 시간을 단축시키고, 이는 민간인 피해 위험을 증가시킬 수 있습니다. 또한, AI의 의존도가 높아질수록 책임 소재가 모호해질 수 있으며, 이는 투명성과 책임성 문제를 제기합니다.

더 넓은 맥락: AI와 현대 전쟁

Lavender 논란은 현대 전쟁에서 AI의 역할에 대한 더 큰 질문을 던집니다. AI는 작전 효율성을 높일 수 있지만, 전투원과 민간인을 구분하는 데 어려움을 초래할 수 있습니다. 특히, 하마스와 같은 비국가 행위자가 민간 지역에서 활동할 때 이러한 문제는 더욱 복잡해집니다.

전 세계적으로 AI 기반 군사 시스템의 사용이 증가하면서, 국제사회는 윤리적 가이드라인과 규제를 마련해야 한다는 목소리가 높아지고 있습니다. 예를 들어, AI가 의사 결정을 자동화하거나, 인간의 감독 없이 표적을 지정하는 것은 심각한 위험을 초래할 수 있습니다.

관련 당사자 정보

  • 이스라엘 국방군 (IDF): 이스라엘의 군사 조직으로, 2023년 10월 7일 하마스 공격 이후 가자지구에서 하마스의 군사적 역량을 무력시키기 위한 작전을 수행 중. Unit 8200은 첨단 기술과 AI를 활용한 정보 수집 및 분석으로 유명한 엘리트 부대.
  • Unit 8200: IDF의 사이버 및 정보 부대, Lavender 시스템 개발 주체. 이 부대는 이스라엘의 기술 혁신 중심지로, 많은 졸업생이 기술 산업에서 성공한 것으로 알려져 있음.
  • 하마스 (Hamas) 및 팔레스타인 이슬람 지하드 (PIJ): 가자지구를 통치하거나 활동하는 팔레스타인 무장 단체. 미국과 이스라엘은 하마스의 군사 날개를 약 25,000~30,000명으로 추정. 이들은 민간 지역에서 작전을 수행하며, 이는 민간인 피해 논란을 야기.
  • 유엔 및 국제사회: 유엔과 인권 단체들은 가자지구에서의 민간인 피해와 AI 사용에 대해 우려를 표명하며, 국제 인도법 준수를 촉구.

결론

이스라엘의 Lavender AI 시스템 논란은 현대 전쟁에서 기술의 역할과 윤리적 경계를 탐구하는 중요한 사례입니다. IDF는 AI로 37,000명의 표적을 생성했다는 주장을 부인하지만, 이 문제는 여전히 논쟁의 중심에 있습니다. AI 기술이 발전함에 따라, 군사적 활용이 투명하고 책임감 있게 이루어지도록 보장하는 것이 중요합니다. 이 논란은 전쟁 지역에서의 사실 확인과 국제적 감독의 필요성을 강조하며, AI와 전쟁의 미래에 대한 심도 깊은 논의를 촉진합니다.

 

 

728x90
반응형
LIST