해상전도 무인으로…“인간 승인에 20초, AI가 확전을?”
가상의 적을 향해 무인 수상정 열 척이 질주하는 시뮬레이션 속에서, artificial intelligence가 적의 행동을 예측하고 각 무인정의 역할을 분배합니다. 국방과학연구소가 개발 중인 '군집 무인수상정'은 단순한 원격 조정을 넘어, 스스로 판단하는 autonomous system을 지향하고 있습니다. 이는 전투의 흐름을 바꿀 수 있는 major change를 의미합니다.
한화시스템의 김영진 책임은 "적을 탐지한 다음 평가하고, 어떤 무기를 사용할지 결정해 지휘관에게 권고하는 모든 과정에 AI가 적용된다"고 설명했습니다. 특히 길이 12m의 감시용 무인정은 LIG와 공동 개발 중이며, 내년까지 실전 배치를 목표로 하고 있습니다. 이번 중동 사태에서 이란의 무인정이 호르무즈 해협을 봉쇄한 사건은 이러한 military technology의 중요성을 부각시켰습니다.
미국이 최근 무인 수상정의 투입을 공식 인정하며 해상전의 new era가 열렸음을 알렸고, 전장에서 수집된 방대한 데이터는 AI의 판단에 의존하게 됩니다. 외신에 따르면, 가자 전쟁 당시 이스라엘의 군인이 표적 식별 AI를 승인하는 데 평균 20초가 걸렸습니다. 고려대 최병호 교수는 "이것은 사실상 검토하지 않는 것과 동일하다"며, AI의 판단을 그대로 수용하는 위험한 관행을 지적했습니다.
성공회대 김현준 교수는 자동화에 익숙해진 인간이 오류를 인식하지 못할 수 있다고 경고했습니다. "다수의 폭격 지점이 데이터로 들어오면 '이건 맞겠구나' 하고 넘어가게 된다"며, 인간의 critical thinking이 사라지는 위험을 강조했습니다. 실제로 170여 명이 숨진 미군의 이란 내 초등학교 폭격 사건은 오래된 정보를 기반으로 한 AI의 오작동 가능성이 제기되며, uncontrollable consequence를 낳을 수 있음을 보여줍니다.
저렴한 무인 무기와 빠르게 발전하는 AI는 전쟁 발생의 threshold를 낮추고, 소규모 충돌이 전면전으로 확산될 위험도 커지고 있습니다. 전문가들은 핵무기나 화학무기처럼 AI에도 국제적인 regulation이 필요하다고 주장하며, 국내에서 추진 중인 유엔 AI허브가 이러한 논의의 global hub가 될 수 있다고 기대하고 있습니다.
AI가 전장을 지배하면 인간의 moral judgment를 도덕적 판단을 어디에 둘지 걱정됩니다. 기술은 빠르지만, 양심은 따라가지 못하면 안 돼요.
20초 승인? 그건 human approval가 인간 승인이 아니라 AI 결정에 도장을 찍는 꼴이죠.
호르무즈 사례처럼, 작은 무인정 하나가 국제 해상을 봉쇄할 수 있다면, 그 위험을 과소평가해서는 안 됩니다.
AI가 판단한 대로 자동으로 미사일 발사된다면, 그 책임은 누구에게 있는 건가요? accountability가 책임 소재가 불분명한 게 가장 무섭습니다.
가격이/price가 저렴한 드론과 AI 조합은 강대국뿐 아니라 소규모 세력도 전쟁을 일으킬 유인이 생기게 하죠. escalation risk가 확전 위험이 현실이 됐습니다.
국내 유치되는 유엔 AI허브가 단순한 상징이 아니라 진짜 international norms를 국제 규범을 세우는 데 기여해야 합니다.