
요즘 의료계에 AI 도입이 활발하다. 수술을 돕는 다빈치 로봇이나 환자의 질병을 진단하는 AI가 기사를 장식한다. 한 병원에 말기 암 환자가 극심한 통증을 호소하며 이렇게 말한다. “의사 선생님, 더는 버틸 수 없어요. 조금만 더, 강한 진통제를 주세요.” 하지만 진통제를 더 주면 환자의 호흡이 멈출 수 있다. 주지 않으면 환자는 고통을 버틸 수 없다. AI는 어떻게 할까.
AI는 의료법에서 정한 매뉴얼을 확인한 뒤, 약물 용량 제공의 한계를 넘었다면 더는 진통제를 주지 않는다. 정해진 법규가 있으니까. 하지만 그 순간, 인간인 의사는 환자의 눈빛과 가족의 오열, 그리고 자신이 일고 있는 법적 사이에서 가장 인간다운 고뇌의 윤리를 경험한다. 그가 어떤 결정을 내리든, 그것은 단순한 생각이 아닌 책임을 지닌 결정이다.
한 여성은 남편이 직장에서 해고당한 사실을 알게 된다. 남편은 해고 사실을 아직 말하지 않았다. 며칠 뒤, 남편이 밝힌다. “미안해. 당신이 힘들어할까 봐 사실을 얘기하지 못했어.” AI는 이 행동을 거짓말, 즉 도덕적 위반으로 기록할 것이다. 하지만 인간은 안다. 그 거짓말이 사랑에서 비롯된 것임을. 그의 선택이 악함이 아닌 선의의 가족을 사랑하는 표현이었음을. AI는 규칙을 따르지만, 사랑을 모른다. 사랑을 위해 때로 규칙을 넘어야 하는 인간의 삶은 AI가 흉내 낼 수 없는 도덕의 풍경을 드러낸다.
우리는 이 물음을 통해 “도덕성”이란 단어가 단순히 규칙을 지키는 것인지, 아니면 유혹과 갈등 속에서도 바른길을 택하는 것인지에 대해 다시 묻게 된다. AI는 완벽하게 규칙을 지킨다. AI는 도덕적인 규칙을 실행한다. AI가 탑재된 자율주행 자동차는 교통 법규를 철저히 따른다. 비보호 좌회전을 하지 않으며, 무단 횡단자 앞에서는 정지한다.
반면, 사람인 운전자는 때로 급한 마음에 신호를 어기고, 오늘은 괜찮겠지라며 도덕의 경계를 넘는다. 이 면에서 AI는 마치 ‘도덕 교과서의 수호자’처럼 보인다. 기억력은 완벽하고, 감정에 휘둘리지 않으며, 뇌물도 받지 않는다. 하지만, 이 규범의 충실함이 과연 도덕인가!

고등학생인 한 학생은 어느 날 친구가 컨닝을 하는 것을 목격한다. 그 친구는 괴로워한다. 성생님께 말해야 할까? 친구를 지켜야 할까? 영희는 친구에게 나중에 조용히 말한다. 공식적인 규범은 어겼을지 몰라도, 우정과 양심 사이에서 자신만의 도덕적 결정을 내린 것이다. 이때 AI는 다르게 행동했을 것이다. 규칙을 위반하면 즉시 선생님에게 보고했을 것이다. 고민도, 망설임도 없다. 하지만 인간의 도덕성은 오히려 이 갈등에서 피어난다는 사실을 잊어서는 안 된다.
AI는 책임을 지지 않는다. 의료 AI가 잘못된 진단을 내려 환자가 다치면, 우리는 ‘누가 책임지나?’라는 질문에 직면한다. 하지만 AI는 책임을 지는 일은 없다. 그 책임은 결국 인간에게 돌아온다. 즉, 도덕은 단지 올바른 행동이 아니라 그 행동에 책임을 질 수 있는 존재로서의 인간인가과 연결된다. AI는 데이터에 의해 우리보다 더 예측을 가능하고, 일관되며, 규칙적이다. 그러나 도덕은 때로 사랑에 감정에 법을 넘고, 용서 때문에 규칙을 수정하기도 한다. AI는 악을 저지를 수 없지만, 선을 택할 수 있는 자유도 없다.
AI는 인간의 도덕성을 비추는 정밀한 거울이다. 우리는 AI의 규범성과 무감정함 속에서, 인간만이 가진 공감, 고뇌, 책임의 의미를 다시금 자각하게 된다. AI가 더 도덕적일 수 있느냐는 질문은, 결국 우리가 얼마나 도덕적이기를 원하는가를 되묻는 질문일지도 모른다. AI는 더 완벽하게 도덕적일 수 있다. 하지만 인간은 더 깊이 있게 도덕적일 수 있다. 도덕이란 때로, 불완전한 선택 속에서도 더 나은 방향을 선택하려는 용기와 고통이다. 그렇기에 우리는 AI에게 도덕을 맡길 수 없고, 그들을 우리의 윤리 교사가 아닌, 도구로 삼아야 할 이유가 된다.
AI는 우리보다 더 도덕적인가? 인간의 한계에도 의문이 생긴다.