[박순형 칼럼] 인공지능의 한계
학습 데이터 불완전·편향적이면
공정하지 못한 결과 초래 가능
‘AI는 무조건 공정’ 인식은 문제
결과 도출 과정, 아무도 몰라
무작정 신뢰해 따라갈 순 없어
정답 없는 부문 결과 보장 못 해
인공지능(AI)은 최근 채용, 금융, 의료, 교육 등 다양한 사회 분야에서 의사결정 수단으로 빠르게 도입되고 있습니다. 그 이유가 AI는 사람과 달리 주어진 자료만을 분석해 편견 없이 객관적인 결과를 제시할 것을 기대하기 때문입니다.
그런데 AI가 사용하는 알고리즘이나 데이터가 불완전하거나 편향성이 있으면, 오히려 공정하지 못한 결과를 생산해 낼 수도 있습니다. AI는 이 세상에 존재하는 모든 데이터를 학습하는데, 그 데이터에는 오류와 함께 편향된 내용들이 얼마나 많겠습니까?
이러한 데이터를 바탕으로 학습한 AI가 도출한 결과는 과연 객관적이고 공정할까요? AI의 분석에 활용하는 자료 자체는 편향됐을 가능성이 크기 때문에, AI도 인간처럼 공정하지 못할 수 있다는 인식을 우리 모두 가져야 합니다. 그러나 누군가는 “AI가 이렇게 평가했다”는 점을 내세워 자신들의 주장을 관철하려 들 수도 있을 것입니다.
예를 들어 사원 채용에서 공정성을 높이기 위해 AI 시스템을 도입한다고 해봅시다. 일반적으로 기업에는 여성 직원보다 남성 직원 수가 많으므로, AI가 참조한 인사 데이터는 ‘남성 지원자’의 자료가 더 많이 있을 것입니다. 그리고 이러한 데이터를 AI는 학습했을 것입니다.
그 결과 AI는 여성 지원자에게 상대적으로 불리한 점수를 매길 가능성이 있습니다. 이는 AI의 잘못이 아니라, 편향된 데이터로 AI를 학습시키고도 AI가 내린 결과는 공정하므로 믿으라고 강요하는 사람들이나 AI가 판정한 것이면 공정하다고 여기는 사람들의 인식이 문제입니다.
의료 분야도 마찬가지입니다. 많은 이들이 ‘AI는 본인에게 가장 적합한 의료적 판단을 내릴 것’이라고 신뢰하지만, 실제로는 AI가 학습한 주된 사람들은 어떤 특정 연령대나 특정 인종, 그리고 특정 성별이 존재할 가능성이 큽니다. 다른 연령대나 다른 인종, 다른 성별 환자의 질환 진단이나 치료 추천에서 오류가 발생할 소지가 있는 것입니다.
학생 선발이나 장학금 수혜, 성적 평가 등 교육 현장에 AI가 도입됐을 때도 마찬가지로 특정 지역·학교·사회경제적 배경을 가진 학생들이 불이익을 받을 수도 있습니다. 이는 오히려 교육 기회의 형평성을 해칠 뿐 아니라, 장기적으로 교육 격차와 사회적 계층 이동에 어려움을 줄 수도 있습니다.
더 큰 문제는 AI가 어떤 특정한 판정 결과를 도출했을 때, 어떠한 이유로 그러한 결과를 도출하게 되었는지 그 과정을 사람들이 알 수 없다는 것입니다. 그 과정을 ‘블랙박스(Black Box)’라고 하는데, 이에 대한 문제도 심각합니다. AI가 어떠한 과정을 거쳐 결과를 도출했는지 모르는 상황에서, 무작정 AI의 판단을 신뢰하여 따라갈 수는 없기 때문입니다. 특히 의료적 판단의 경우는 더욱 그러합니다.
바둑의 예를 들어보겠습니다. 알파고(Alphago)는 바둑 기사들의 기보를 학습하고 이후 스스로 대국을 반복하며 발전했기 때문에, 알파고가 어떤 방식으로 학습했고 왜 그러한 특정 수를 두었는지는 개발자조차 알 수 없습니다. 우리가 전혀 알 수 없는 알파고만의 알고리즘, 즉 처리 과정이 바로 ‘블랙박스’입니다.
‘블랙박스’란 우리가 그 안을 들여다볼 수 없다는 의미입니다. 일반적으로 생각하면 이세돌 9단을 이길 수 있는 바둑 프로그램을 개발하기 위해, 개발자의 바둑 실력은 바둑 10단 이상이 되어야 할 것입니다. 그러나 알파고는 인간이 학습시킨 것이 아니라 스스로 학습한 결과 이세돌 9단을 거의 일방적으로 이길 수 있는 실력을 갖추게 되었습니다. 그러므로 알파고가 어떤 규칙들을 스스로 만들었는지에 대해서는 알 수가 없는 것입니다.
이처럼 AI는 바둑과 같이 스스로 규칙을 만들거나 수학적 계산을 적용하여 정답을 도출할 수 있는 부문에서는 매우 뛰어나지만, 정답이 없는 부문에서도 항상 객관적이고 공정한 결과를 보장하는 것은 아니라는 사실을 알 수 있습니다.
그렇다면 이러한 문제에 대해 어떻게 대처해야 할까요? 첫째, 독립적인 AI 감사(監査) 기구를 AI 기업들이 만들어, 그들이 개발한 AI 모델의 알고리즘과 자신들이 사용한 데이터 세트에 편향성이 있는지를 자체 점검해야 하고, 그 모델을 인증하는 정부 부처 역시 점검 과정을 거쳐 그 결과를 이해 관계자와 국민에게 투명하게 공개해야 합니다.
둘째, 정부가 ‘공정성 측정 표준 지표’를 마련하여 모든 연구자와 개발자가 이 지표를 충족시킬 수 있는 AI 모델을 개발하고, 이미 개발된 모델들도 이 지표들에 맞춰 수정·개선해야 합니다. 그리고 모델별로 공정성 점수를 공개해야 합니다.
셋째, AI로 인해 차별적 피해가 발생했을 때 ‘개발자, 데이터 제공자, 활용 기업’ 중 어느 쪽에 책임이 있는지 명확히 규정하기 위한 법적·제도적 논의를 서둘러 마련해야 합니다.
마지막으로, 이러한 방안들이 더욱 객관성을 가질 수 있도록 종교계를 포함한 사회 각계가 반드시 참여하고 의견을 제시할 수 있는 구조가 조속히 마련돼야 할 것입니다.
박순형 목사
웨이크신학원 교수
‘AI 시대 과학과 성경’ 강의
국제독립교회연합회 서기
극동방송 칼럼. 국민일보 오늘의 QT 연재
(주)아시아경제산업연구소 대표이사
이학박사(Ph.D.)
아세아연합신학대학원(M.Div)
필리아교회 담임