“누굴 죽일 것인가?”… 이 딜레마를 자율주행차에 물으면 안 되는 이유ㅣ인터비즈

트롤리 딜레마는 윤리학 분야의 사고 실험이다. 트롤리(전철)가 멈출 수 없어 반드시 한쪽을 선택해야 할 때 어떤 선택을 하는지 묻는다. 그대로 달리면 5명의 사상자가 발생하고 방향을 바꾸면 1명의 사상자가 발생한다. 이 이론은 극단적인 양자택일의 상황을 가정하고 사람의 윤리의식을 테스트한다. 당신이라면 어떤 선택을 할까. 또 그 응답자가 인공지능(AI) 로봇이라면 어떤 답이 나올까.

자동 운전 차는 트롤리 딜레마를 해결할 수 있을까.필자는 지인들과 자동 운전에 관한 주제로 이야기를 하던 중, 트롤리 딜레마 이야기가 나왔다. 자동 운전 중에 탑승자의 목숨이 위태로운 상황에서 이를 피하려고 핸들을 돌리자 그 방향에 있던 보행자의 다수가 차에 받힐 가능성이 있다고 한다. 자동 운전 시스템은 어느 쪽을 택할? 자동 운전 자동차는 트롤리 딜레마를 해결할 수 없다는 지인의 말에 필자는 반대로 질문했다. “자네가 그 상황이면 어떡하지?”그는 잠시 고민하는 듯했지만”잘 모른다”이라고 답했다. 그동안 자동 운전 차의 주제를 다룰 때마다 트롤리 딜레마가 거론되어 왔다. 자동 운전 차가 주행 중에 어쩔 수 없이 선택해야 하는 경우 드라이버와 보행자, 또는 보행자 사이에서 누구를 우선적으로 살릴지의 문제이다. 이 주제는 왜 등장하면서 과연 질문을 던지는 사람들은 같은 상황에 처했을 때 어떤 결정을 내리는가. 각자의 가치관과 이유에 의해서 어느 한쪽의 답을 선택하는 사람도 있으면 아무 대답도 선택할 수 없는 사람도 있을 것이다. 어디를 택해도 논란의 여지가 있다.도대체 왜 우리는 사람도 뽑기 어려운 상황을 기계에 주고 테스트하고 싶을까? 따지고 보면 이런 질문을 하는 것 자체가 무리한 측면이 있다. 사람도 답할 수 없는 윤리적 가치 판단의 문제를 기계라고 잘 될 것이 없기 때문이다.질문하는 이유는 AI에 대한 기대감 때문에 사람들은 AI에 대한 기대감을 갖고 있다. 보다 광범위하게는 컴퓨터와 소프트웨어(SW)에 대한 기대감이다. 컴퓨터는 인간보다 더 완벽하게 계산해야 한다는 기대감이다. 역사적으로 컴퓨터는 인간의 다양한 지적 능력과 계산 능력을 보조하거나 대체하는 도구로 발전했다. 또 컴퓨터가 매우 빠른 계산, 망각도 없는 방대한 보존 능력은 인간을 능가하는 효율과 편의를 제공했다. 제대로 동작하는 시스템이라면 적어도 인간보다 오류를 저지를 확률이 낮은 것이 사실이다.대체로 기계에 의한 작업은 인간보다 정밀하고 정확하다. 또 대부분의 경우 항상 일정한 성과를 낸다. 인간은 망각의 동물이고 잘못이 많은 편인 반면, 기계는 학습한 내용과 데이터에 근거하여 판단을 내린다. 더 뛰어난 데이터 확보 및 저장 능력에 근거하여 사람이 뇌 속에서 일어나는 작용보다 수백, 수천배 이상의 규모와 속도로 계산할 수 있다. 이는 “기계가 본래 뛰어나다”라는 뜻은 아니다”결국은 인간이 자신의 편의 때문에 기계를 그렇게 설계하고 발전시킨 “이란 뜻이다.

출처 게티이미지뱅크우리가 자동 운전 자동차 사고를 더 심각하게 받아들이는 이유는 행위의 주체가 같은 인간이 아니라 기계라고 하는 것에 대한 거부감 때문일 것이다. 그러나 한편에서는 자동 운전이나 AI가 주목된다 기대주인 때문인 것도 있다. 국내에서도 2016년 알파 바둑에 촉발된 AI에 대한 기대감이 높다. 다른 나라의 기업 정부 사회도 AI에 대한 투자 및 연구 개발을 적극적으로 진행하고, 실제 AI는 이런 기대에 부응하듯 여러 분야에서 일부 성과를 올리고 있다.지나친 기대는 금물, 실제 자동 운전 기술을 개발 중인 기업은 상용화 일정을 지속적으로 연기하고 있다. 구글 자동 운전 차 개발을 책임 맡은 크리스·엄 송준섭은 상용화 시점이 예상보다 30년 이상 늦춰질 것으로 예상하고 있으며 자동 운전 차 개발을 주도한 구글, 애플, 테슬라, GM, 포드 등 IT및 완성 차 업계도 개발 목표 시점을 이미 몇 차례 이상 연기했다.출처 동아비즈니스리뷰(DBR)다시 첫머리에서 꺼낸 트롤리 딜레마의 얘기로 돌아가자. 자동 운전의 영역에서 트롤리 딜레마 같은 윤리적 논의는 중요한 가치 판단의 문제이다. 이는 설계 단계부터 올바른 목적을 가진 AI을 만들어 악용을 방지하자는 논의와는 다소 다르다. AI을 윤리적 딜레마 상황에 두고 어떤 행동을 하는지를 시험하고 보자는 취지이기 때문이다. AI는 이 딜레마를 풀게 똑똑하지 않다. 만일 많은 데이터를 학습하고 더 현명하게 되더라도 트롤리 딜레마는 인간에게도 그렇듯 AI에는 난제로 남을 것이다.다만 트롤리 딜레마의 극단적인 가정이 잘못되고 있을 뿐 굳이 대답하자 의외로 해결책은 단순 명료하다. 설계 단계부터 철저하게 탑승자와 보행자의 양자 택일이라는 상황을 만들지 않도록 대비한 어쩔 수 없이 주행을 멈출 수 없는 상황에 직면하였을 경우 시스템을 정지하면 된다. 특히 브레이크 시스템만은 가속화 시스템보다 더 엄격하게 관리하고 자동차의 모든 동작이 멈춘다고 해도 기계적으로라도 작동하도록 설계해야 한다. 그는 만일 그런 딜레마가 발생한 경우 차량 제조 업체는 탑승자 보호를 최우선으로 하는 것이 합리적일 수 있다. 자동 운전 차에는 공리주의적 선택이 반드시 옳다고 할 수 없기 때문이다. 자동차는 어디까지나 제품이다. 주인을 희생하더라도 인류애를 실현하는 제품을 사는 사람이 얼마나 있을까. 이러한 탑승자 우선의 원칙이 제대로 사회적 논의를 통해서 합의할 수 있는 부분이다.실제로 AI을 최전선에서 개발하고 연구하는 사람들은 제대로 동작하는 AI을 만드는 것이 얼마나 어려운지를 잘 알고 있다. 수많은 프로토 타입이 세상의 기대에 못 미치는 것도 알고 있다. AI의 기술적 응용적 미래적 차원에서 세상의 기대에 거품이 생기고 있다는 뜻이다. AI는 인간의 편의성 증대를 위해서 만든 도구이다. 그리고 AI의 설계자는 인간이며 그 책임도 인간에 있다. 인간이 만든 자동 운전 차에 윤리적 판단을 강요하는 우문을 던질 게 아니라 책임감 있는 설계와 냉철한 검증에 몰두해야 할 때다.인터비즈 정서우 김재현 정리[email protected]인터비즈 정서우 김재현 정리[email protected]

error: Content is protected !!