본문 바로가기
이슈, 트렌드 생각하기

자동 운전자동차의 딜레마 과연 2025년에는?

by SUNG & SOL 2015. 11. 8.
반응형


아주 오래 전부터 애니메이션이나 영화에서 자동운전 차량에 대해서

많이 그려져 왔었습니다. 그리고 지금은 실제 주행시험도 성공적이라는 

보도도 나오고 있는 시점입니다. 2025년에는 상용화가 될 거라는 소식도 들리구요.


하지만 역시 자동운전이 정착되기 위해서는 해결해야할 문제가 있습니다.

윤리학에서 사고실험에는 인간이 도덕적 딜레마에 어떻게 대응할 것인가에 대한

이른바 "광차 문제"라는 것이 있습니다 - http://blog.naver.com/braveattack/10051591508 '도덕' 참조


출처 : http://blog.naver.com/braveattack/10051591508


위의 그림을 보시면 5명 + 1명이 선로에서 움직일 수없는 상태에 있고 

거기에 탄광차가 향하고 있습니다. 선로를 달리는 탄광차가 통제 불능으로 멈추지

못하고 그대로 달리면 선로의 끝에 5명이... 하지만 선로의 분기점에서 진로를 변경하면 

그 앞의 1명을 치게 된다고 할 때 진로를 바꾸는 것이 올바른 선택인지, 아닌지 하는 

사고실험입니다. 즉, 단순하게 말하면 '5 명을 돕기 위해 1 명을 죽게 만든다는 것인데요.

이때 5 명을 살린다가 공리주의(최대 다수의 최대 행복이라는 개념)가 됩니다.

하지만 도덕적 관점에서 이 선택에 의문을 품는 사람이 있는 것도 사실이고 그래서 

말 그대로 도덕적 딜레마라는 것입니다


여러분이 만약 자동차를 운전하다가 잠시 한눈 판 사이 눈앞에 10명의 행인이 보입니다. 

이대로는 모두를 치게 되고, 여러분이 핸들을 꺾으면 10명은 구할 수 있지만 자동차가 벽에 

부딫쳐 여러분이 목숨을 잃을 수 있습니다. 어떻게 하시겠습니까?

이 문제는 자동 운전 자동차를 개발하는 프로그래머들을 괴롭히는 문제일 것입니다.

자동 운전 자동차는 광차 문제에 어떻게 대응할 것인가? 알고리즘으로 프로그램화 해서

이를 어떻게 극복할 것인지가 자동 운전 자동차 도입에 있어서 논의의 대상이 되고 있습니다.


기계는 도덕적으로 행동 할 수없으므로 인간을 죽이지 않는다는 대원칙은 프로그래밍 가능할지도 

모르지만 상세하게 인간다운 윤리적 판단을 가능하게 하는 것은 그렇게 간단한 문제가 아니란 것은

여러분도 잘 아실 겁니다. 기술적인 문제 이전에 사람들도 모두 같은 판단을 내리기가 힘든 문제이니까요.


자동 운전 자동차가 오토바이와의 사고에 직면해 충돌을 피하고 벽으로 돌진하도록 프로그램 될 수 있다면 

자동차와 오토바이 운전자 중 생존 가능성을 고려할 필요가 생깁니다. 또한 자동 운전 자동차에 아이가 타고 

있는지 여부도 결과는 달라지게 될 겁니다. 이외에도 여러가지 다양한 요소를 고려할 필요가 있는 것이죠.


자동 운전 자동차는 탑승자의 안전을 최우선으로 생각하고 움직이게 프로그램되어야 할까요?

아니면 탑승자의 안전은 확보된 후, 차 밖의 손해를 최대한 적게 하도록 프로그램되어야 할까요?


자동 운전 자동차의 프로그래머들은 참 머리가 아프겠습니다.

일단 자동 운전 기능 설명서의 어딘가에는 분명히 다음 문장이 실리게 될 겁니다.

"이 소프트웨어를 사용해서 사용자 또는 제 3자가 입은 손해에 대해 책임을 지지 않습니다" 라고^^;;;


반응형