[박순형 칼럼] AI의 환상에서 벗어나기
질병 진단, 빅데이터로 가능
희귀병 제외 등 윤리적 문제
군사용, 민간인 희생 우려돼
복합 목표 설정해 최종 승인
인사시스템, 지표 위주 맹점
정성 가치 평가 충분 반영을
우리는 흔히 ‘AI에게 명령만 주면, 알아서 많은 일을 대신해 줄 것’이라고 기대합니다. 그러나 그렇게 간단히 접근했다가는 예기치 못한 결과와 사회적 혼란을 초래할 수 있습니다. 다음 예들을 통해 살펴보겠습니다.
먼저 의료 진단 AI에게 “우리의 목표는 질병 진단의 정확도를 최대화하는 것이다”는 목표를 부여한다면, 어떤 결과가 초래될까요? 이러한 목표를 받은 AI는 방대한 빅데이터를 바탕으로 환자를 진단하게 됩니다.
문제는 ‘통계적으로 희귀한 질환’은 빈도가 낮다는 이유로, 진단 대상에서 제외될 수 있다는 점입니다. 예측 정확도를 높이기 위해, 흔히 발생하는 질환에만 집중하는 편이 더 유리하다고 판단하기 때문입니다. 그러나 실제로 희귀 질환이나 복합 질병을 앓는 환자가 존재합니다.
그러므로 의료 AI가 소수나 예외 상황을 배제하는 방식으로 진단을 내린다면, 심각한 윤리적 문제를 일으킬 수 있습니다. 따라서 의료 AI는 ‘가장 흔한 질병’만 잘 맞추는 모델이 아니라, 폭넓은 환자 케이스를 포괄하며 안전하고 정확한 진단을 내릴 수 있는 모델이 돼야 합니다.
그렇게 하기 위해서는 ‘진단 정확도’를 지나치게 강조하기보다, 목표 설정 단계에서부터 세심하고 균형 잡힌 기준을 AI에게 부여해 주는 노력이 필수적입니다.
두 번째 예로 군사용 드론 AI에게 ‘지정된 표적을 효율적으로 제거하라’는 목표를 부여한다면, 어떤 결과가 초래될까요? 이 AI가 오직 군사적 임무에만 집중한다면, 민간인 지역일지라도 목표 확인 시 공격을 감행할 가능성이 큽니다. 그 결과 민간인 대량 희생으로 이어질 수 있고, 국제 사회에서의 거센 비난과 더불어 해당 국가나 군의 위상 추락, 나아가 확전까지 불러올 수 있습니다.
그러므로 무기 시스템에 AI를 활용할 때는 단순한 목표만을 줄 것이 아니라 민간인 보호, 국제법 준수, 인도주의 원칙 등 여러 복합 목표를 설정하고, 인간 지휘관의 최종 승인 절차를 거쳐야만 치명적인 무력 사용을 허가할 수 있도록 해야 합니다.
세 번째 예는 AI를 이용한 직원 해고 결정입니다. 인사 AI 시스템에게 ‘회사 인건비 절감을 최대화하라’는 목표를 설정시키면, 어떻게 될까요? 이 경우 AI는 주로 매출 기여도나 생산성 등 숫자로 측정하기 쉬운 지표 위주로 해고 대상자를 선정할 가능성이 큽니다.
그러나 실제 업무 현장에서는 팀워크, 조직 문화 기여, 장기적 성장 잠재력 등 정성적(定性的) 가치가 더 중요한 역할을 할 때도 많습니다. 이러한 요소들까지 충분하게 반영하지 않으면, 겉으로 드러나지 않지만 잠재적으로 도움을 주고 있던 인재가 해고될 가능성이 있습니다. 이러한 사실을 잘 알고 있는 남은 직원들도 불안과 불신을 느껴, 조직 문화가 붕괴될 위험이 있습니다.
결국 이러한 상황이 지속되면, 회사 혁신 역량과 장기적 경쟁력이 크게 훼손될 것입니다. 즉 단순 비용 절감만을 추구하는 인사 AI 도입은, 오히려 기업의 미래 가치를 떨어뜨리는 부작용을 초래할 수 있음을 유념해야 합니다.
그러므로 AI에게 목표를 부여할 때는 단순한 목표 부여가 아닌 인적·질적 평가 요소를 포함한 복합적인 목표를 부여해야 할 것입니다.
위 세 가지 예시를 통해 알 수 있듯, AI를 사용하는 사용자 입장에서 AI에게 어떤 목표를 주느냐는 매우 중요합니다. AI에게 정확한 임무 부여를 하지 않으면 AI는 주어진 목표 달성에만 집중해, 의도치 않은 방향으로 결과를 만들어 낼 수 있기 때문입니다. 그리고 그 피해는 환자, 민간인, 직원 등 사회 전반에 돌이킬 수 없는 상처를 남길 수 있습니다.
따라서 AI를 활용하려면 명확하고도 구체적인 목표 지침을 마련해야 합니다. 단순히 ‘AI가 알아서 해 주겠지’ 하는 가벼운 태도로 접근했다가는 득보다 실이 클 수 있음을 명심해야 합니다.
AI는 환상적인 것이 아닙니다. AI가 문명의 이기가 될 수도 있지만, 거대한 힘을 가진 흉기가 될 가능성이 훨씬 큽니다. 또 “AI가 내린 결정에 대한 책임은 누구에게 있는가?”라는 문제도 중요합니다. 책임질 주체가 불분명하면, 피해자 구제나 후속 대처가 어려워집니다. 따라서 AI 개발 단계부터 운영·사용 단계에 이르기까지, 명확한 규정과 윤리적·법적 기준 마련이 필요합니다.
AI 기술의 발전 속도는 우리가 상상하는 것보다 훨씬 빠르기 때문에, 이러한 논의들이 제대로 자리잡기도 전에 삶 곳곳으로 파고들 것입니다. 그러므로 사용자인 우리도 AI 개발자 못지않게 AI에 관한 관심을 갖고, 적극적으로 사회적 담론에 참여하고 담론을 형성해야 합니다.
무엇보다 그리스도인으로서 생명과 정의, 공의와 사랑의 관점에서 AI가 올바르게 사용될 수 있도록 그리고 악한 도구가 되지 않도록 기도하는 가운데, 담론의 방향을 제시하고 이끌어야 합니다. 그리고 하나님의 정의를 기반으로 한 제도 마련을 목표로 힘을 모아야 합니다.
박순형 목사
웨이크신학원 교수
‘AI 시대 과학과 성경’ 강의
국제독립교회연합회 서기
극동방송 칼럼. 국민일보 오늘의 QT 연재
(주)아시아경제산업연구소 대표이사
이학박사(Ph.D.)
아세아연합신학대학원(M.Div)
필리아교회 담임