1. <자료>에서 제기한 질문 ①, ②, ③에 답변하고, 본인의 대답이 일관되거나 모순되는 이유를 설명하시오.
2. 자료에 제시된 ‘윤리적 딜레마 상황’에서 프로그래머가 지켜야 할 ‘원칙’이 무엇인지 ‘자신의 생각’을 한 문장으로 명제화하여 본문에 밝히시오.
3. 2.에서 밝힌 ‘원칙’이 초래할 수 있는 윤리적・사회적・경제적 문제의 구체적 사례를 2가지 이상 언급하고, 이를 해소하거나 줄일 수 있는 방안을 근거를 들어 제안하시오.
4. 글의 주제가 분명히 드러나도록 제목과 주제문을 쓰시오.
5. 완결된 글을 2,400~2,700자로 쓰시오. - 프로그램 메뉴의 “문자 수(공백 포함)” 참조.
6. 인용할 때는 큰따옴표(“”)로 표시하시오.(인용은 글 전체 분량의 10%를 넘지 않도록 할 것)
사람은 누구나 동등한 가치를 지닌다는 것은 일반적으로 받아들여지는 사실이다. 그런데도 불구하고 사람은 이기적이다. 살아온 환경에 따라서 가치관은 달라진다. 사익을 위해서 민족을 파는 친일파가 있는 반면에 더 나은 사회를 만들기 위해 위험한 상황을 무릅쓰고 독립투사도 있다. 지금까지 있었던 여러 역사적 사건이 가치관 차이가 만들어내는 결과를 보여준다. 개인의 가치관은 이렇게 큰 차이를 만든다. 만약 보행자 5명을 치는 것과 1명을 치는 것을 선택해야하면 자율주행차는 핸들을 꺾어서 보행자 1명을 치게 하도록 코딩해야 한다. 상황을 대입하지 않고 생각한다면 6명 모두 평등하다. 이런 상황에서 누군가 다칠 수밖에 없고 당연히 더 많은 사람을 보호하여야 하는 것이 맞다고 생각한다. 핸들을 꺾어서 다치게 되는 사람이 누가 되어야 하냐는 질문은 쉽게 답변하기 어렵다. 두 판단 모두 틀릴 수 없으며, 가치관에 따른 선택의 문제이다. 자동차 탑승자와 보행자는 입장이 다를 것이며, 인공지능 설계자는 사람의 기본 가치관에 따라서 판단할 수 없다. 나는 보행자를 보호해야한다고 생각한다. 탑승자는 차량 탑승시 차량의 결함이나 교통사고의 위험을 인지하고 있다. 보행자는 불특정 다수가 될 수 있으며 사전에 인지하지 못할 가능성이 크다. 일반적으로 차량과 보행자가 충돌한다면 보행자가 더 큰 부상을 입게 되므로 보행자를 보호하도록 설계하는 것이 더 바르다고 생각한다. 그런데도 내가 차를 구입하는 상황이 온다면 보행자의 안전을 우선시하는 자율주행차를 구입하지 않을 것이다. 앞에 두 상황에서의 문제와 큰 차이점이 있다. 바로 내가 자동차 탑승자가 되어야 한다는 점이다. 그렇다 보니 누가 다칠지 결정하라고 한다면 내가 다치는 위험을 무릅쓰는 차에 탑승하고 싶지 않다. 이는 개인의 이해관계에 따른 결정이다. 첫 번째와 두 번째 결정은 사람의 기본 가치와 일반적 상황을 놓고 판단했기 때문에 일관되어있지만, 세 번째는 앞의 두 결정과 모순되어있다.
“마스크 안을 가득 채운 더운 숨이 매우 답답하게 느껴졌다. 도저히 참을 수 없을 지경에 이르자 나도 모르게 마스크를 코 아래로 내렸다. 최소한 내 입은 잘 막고 있으니까, 괜찮을 거야’ 하는 생각들이 머릿속에 떠올랐다.
하지만 이내 곧 그 생각들을 밀어내고 어제 내가 내뱉었던 말들이 차올랐다. 마스크를 제대로 쓰지 않는 사람들에 대해 어제 그렇게 신랄하게 비판했는데, 숨이 차다고 마스크를 코 아래로 내린 나를 보니 나 자신이 참 모순적이라는 생각이 든 것이다.” – 혜민스님
이러한 모순의 원인은 이기심과 이타심 두가지를 모두 가진 사람의 근본적인 특성에서 기인한다. 속세에서 벗어난 스님조차도 자신에게 모순을 느끼는데, 사람에게 모순이 없다고 하는 것이 모순이다. 그런데도 사람은 가치관의 차이에 따라서 무엇이 더 우선순위에 있어야 하는지 결정해야 한다.
그렇기에 딜레마가 발생할 수 밖에 없다. 그러면 이런 상황에서 최선의 결과를 만들기 위해서 지켜야할 점이 무엇인지가 중요하다. 이를 프로그래밍의 원칙이라고 하겠다. 프로그래밍의 원칙을 만들 때에는 상황을 객관적으로 바라봐야한다. 즉 누군가의 이해관계가 개입해서는 안된다. 위 문제에 대한 상황을 살펴보자. 먼저 인간의 보편적 가치를 따져보면 여러 명이 다치는 것과 한 명이 다치는 것 중에서 한 명이 다치는 것이 낫다. 이는 기인한다. 일반적으로 보행자가 크게 다칠 확률이 높기 때문에 보행자를 보호하도록 코딩해야한다. 하지만 이렇게 일반적인 상황만을 논할 수는 없다. 병이 들고 노쇠한 노인 여러 명과, 어린 아이 1명 중 누구를 다치게 해야 하냐는 반론이 있을 수 있다. 따라서 일반적인 상황으로 원칙을 설계하여도 가치관 차이로 발생하는 특수한 상황도 다뤄야 한다. 이러한 특수한 상황에 대해서는 사회적인 합의가 필요하다. 따라서 사회가 일반적으로 동의하는 방향으로 세부 사안을 결정해야한다. 이 상황에서 프로그래머는 이렇게 합의된 사항을 잘 이행할 수 있도록 기술적인 부분을 개발하려는 최선의 노력이 필요하다.
이러한 원칙은 윤리적 문제를 최소화한다. 자동차의 결함은 인공지능이 야기한 사안이 아니다. 단순히 상황을 인공지능이 판단하는 것이다. 따라서 충분한 기술의 개발을 수반하는 인공지능은 보다 합리적으로 상황을 판단할 수 있을 것이다. 만약 이에 대해서 반론을 한다면, 사람의 판단은 항상 윤리적인지 묻고 싶다. 하지만 이러한 원칙은 사회적, 경제적 문제를 수반한다. 먼저 세부적인 원칙을 정하기 위한 사회적 합의가 필요하다. 그러다 보니 사회 구성원 간의 갈등이 커질 수 있다. 이런 원칙은 기업의 경제적 문제 와도 직결한다. 사회 구성원 간의 합의가 늦어진다면, 개발 비용이 그만큼 증가한다. 또한 고객 입장에서 사고가 났을 때, 누가 자신을 보호해주지 못하는 차를 사고 싶어하지 않는다. 기업은 이윤을 추가하는 것이 목적이다 보니 시장경제 속에서 윤리적 문제, 사회적 합의를 무시할 수 있다. 따라서 국가가 적극적으로 개입하여야 한다. 정부가 인공지능이 도입됨으로써 발생할 수 있는 사회적 이익을 인정하고 기업을 지원하여야 한다. 기업은 사회적 합의 전까지는 섣불리 기술 도입을 결정 내려서는 안되며 최대한 많은 사람을 설득할 수 있는 기술 개발에 힘 써야한다. 이러한 보완책을 바탕으로 기업은 이익을 보장받으며, 국가는 기술 개발을 촉진한다. 따라서 원칙에 따른 인공지능 개발이 가속화되며 최선의 결과를 만들어낼 것이다.