[박순형 칼럼] 창조 질서 향한 도전
빠르고 정밀한 의사결정과 실행
초 단위 작전, 성공률 ↑ 위험 ↓
예측 불가능 대처 능력에는 한계
심각한 윤리적 문제 일으킬 수도
오작동 책임 소재, 오류 가능성도
테러 조직 입수하면 세계적 재앙
인공지능 기술 중 특히 우려를 자아내는 대표적인 사례는 자율살상무기입니다. 자율 살상무기 체계(Lethal Autonomous Weapons Systems, LAWS)는 인간의 직접 개입 없이 센서, 카메라, 위성 등 다양한 데이터를 수집하고 분석해 주변 환경을 스스로 인식하며, 목표를 탐지하고 식별한 뒤 우선순위를 설정하고 공격을 실행할 수 있는 무기 시스템을 말합니다.
이러한 무기는 대규모 데이터 학습을 통해 목표를 식별하고 공격 전략을 최적화하는 딥러닝 기술, 반복적인 시행착오를 통해 최적의 전술을 학습하는 강화학습, 그리고 적의 행동을 예측하여 가장 효과적인 전략을 도출하는 게임 이론 알고리즘 등을 활용합니다.
특히 인공지능(AI) 기술과 기계 학습 알고리즘은 실시간으로 방대한 데이터를 처리하며, 목표의 움직임, 거리, 위협 수준 등을 분석하여 기존 무기 시스템보다 더 빠르고 정밀한 의사결정과 실행을 가능하게 합니다. 이를 통해 전투 상황에서 인간 개입 없이 초 단위의 의사결정을 수행, 작전 성공률을 높이고 위험을 최소화할 가능성을 제공합니다.
이러한 기술 발전은 순간 단위의 빠른 의사결정을 통해 전쟁 양상이 인공지능 기반 자율 무기 간 대결로 변화될 가능성을 시사합니다. AI 기반 자율 무기의 전술적 우위는 다양한 시뮬레이션에서 명확히 드러났습니다.
2020년 미국 국방성 산하 방위고등연구계획국(DARPA)은 ‘AlphaDogfight Trials’라는 프로그램을 통해, AI 기반 전투기 조종 알고리즘과 인간 조종사 간의 가상 대결을 실험했습니다. 이 가상 전투 시뮬레이터에서 AI 조종사는 인간 조종사와의 1:1 공중 전투에서 5:0 완승하며, AI의 신속한 반응과 최적의 전술 선택, 적의 움직임 예측 능력이 탁월함을 보여주었습니다. DARPA는 이를 통해 AI가 공중 전투에서 인간보다 전략적 우위를 점할 가능성을 입증했습니다.
2023년에는 AI 기반 자율 시스템을 탑재한 무인 전투기가 인간 조종사의 유인 전투기와 공중에서 대결을 펼쳤습니다. 이 시뮬레이션에서 AI는 실시간 적응 능력과 빠른 데이터 분석을 통해 점차 인간 조종사를 압도하는 모습을 보였습니다.
그러나 이러한 성과에도 불구하고, AI는 학습된 범위 내에서만 강점을 발휘하며 인간이 보여줄 수 있는 창의적 사고와 예측 불가능한 상황 대처 능력에서는 한계를 드러냈습니다. 이는 이세돌 9단이 알파고와 대결했을 때, 제4국에서 누구도 사용해본 적 없었던 새로운 방법을 시도하자 알파고가 혼란을 거듭하다 불계패를 당하였던 사례와 유사합니다.
자율 살상무기가 배치되는 이유는 첫째, 신속하고 정확한 의사결정으로 전장에서 빠르게 반응하여 우위를 점할 수 있기 때문입니다. 둘째, 위험 지역에서 병사를 대신해 작전을 수행해 병사의 안전을 확보하는 등 여러 장점이 있기 때문입니다.
그러나 생사의 결정을 AI에 맡기는 것은 심각한 윤리적 문제를 일으킬 것입니다. 예를 들어 자율 살상무기가 오작동하거나 민간인 피해를 초래했을 때, 책임 소재가 명확하지 않습니다. 또 인공지능은 인간이 설계한 시스템이기 때문에 항상 오류 가능성을 내포하고 있으며, 이러한 기술이 테러 조직에 넘어가면 세계적 불안정을 초래할 위험도 있습니다.
성경은 “칼을 가지는 자는 다 칼로 망하느니라(마태복음 26:52)”고 말씀합니다. 이는 폭력의 악순환을 경고하며, 인간이 기술적 힘에 의존하여 살상용 자율무기를 제조하여 사용하는 것이 폭력을 증폭시키는 결과를 낳을 수 있음을 시사합니다.
하나님께서 창조하신 인간 생명을 AI와 같은 기계의 자율성에 맡긴다면, 이는 우주를 창조하시고 다스리시는 하나님의 주권을 부정하는 중한 죄를 짓게 되는 것입니다. 이는 구약 시대 이스라엘 백성이 자신들의 삶 전체를 하나님이 아닌 바알에게 의존했던 행위와 다르지 않습니다.
욥기 12장 10절은 “모든 생물의 생명과 모든 사람의 숨이 그의 손에 있느니라”고 말씀합니다. 우리는 하나님의 주권을 신뢰하며, 인공지능 기술이 하나님의 창조 질서와 주권을 침해하지 않도록 법적·제도적 방안을 모색해야 합니다. 이를 위해 신학적 관점에서 다음과 같은 접근이 필요합니다.
1. 하나님의 창조 질서에 근거한 법적 원칙 정립
모든 생명은 하나님의 주권 아래 있다는 신학적 원칙을 기반으로, AI 기술이 인간의 존엄성과 생명권을 침해하지 않도록 법적 제도를 마련해야 합니다. 이러한 제도는 생명 보호를 최우선으로 하는 윤리적 기준과 책임 체계를 반드시 포함해야 합니다.
2. 국제적 협력과 조화
인공지능 기술이 전 세계적으로 미치는 영향을 고려, 각국이 하나님의 창조 질서를 반영한 법률과 제도를 수립하고 이를 바탕으로 협력할 수 있도록 유도해야 합니다. 이러한 협력은 국제적인 규범과 조약을 통해 구체화되고 실현될 수 있습니다.
3. 교회의 역할 강화
신학적 통찰을 바탕으로 교회는 사회적 책임을 충실히 이행하며, AI 기술이 윤리적으로 사용되도록 지지하고 이를 감시하는 중요한 역할을 감당해야 합니다. 또한 교회는 생명과 정의를 보호하고 증진하는 대안을 제시하며, 하나님의 창조 질서와 주권을 전 세계에 전파하는 데 앞장서야 합니다.
4. 교육과 인식 제고
AI 기술의 윤리적 문제에 대한 인식을 제고하기 위해 신학적 교육과 대중 강연을 활용해 하나님의 주권과 창조 질서의 중요성을 널리 알려야 합니다. 이를 통해 인간의 생명을 존중하고, 폭력과 전쟁이 아닌 화평과 조화를 추구하는 사회적 방향을 제시할 수 있을 것입니다.
박순형 목사
웨이크신학원 교수
‘AI 시대 과학과 성경’ 강의
국제독립교회연합회 서기
극동방송 칼럼. 국민일보 오늘의 QT 연재
(주)아시아경제산업연구소 대표이사
이학박사(Ph.D.)
아세아연합신학대학원(M.Div)
필리아교회 담임