이미지:픽사베이
이미지:픽사베이

트롤리 딜레마(Trolley Problem)는 '다수를 구하기 위해 소수를 희생하는 것이 도덕적으로 허용되는가?' 라는 사고(思考) 실험이다.

 미국의 정치철학자 '마이클 샌델(Michael Sandel, 1953년)'은 저서 '정의란 무엇인가'에서 트롤리 열차가 5명의 인부를 덮치기 전에 레일 변환기를 당겨 1명의 인부 쪽으로 가도록 방향을 트는 것이 허용되는가 하는 문제를 소개했다.

이는 곧 자율주행차가 긴급 상황에서 보행자와 운전자 중 누구를 살릴 것인가의 문제와도 연결된다. 자율 기계 및 의사 결정은 잠재적으로 치명적인 오류로 이어질 수 있으며, 로봇 오류로 인한 사망은 '트롤리 문제'와 같은 도덕적 문제를 낳는다.

인공지능(AI)과 로봇 공학의 발전은 자율주행 자동차, 산업용 로봇, 의료용 로봇이 향후 20년 동안 더 능력 있고, 독립적이며, 널리 퍼질 것이라는 것을 의미한다. 그러나, 이러한 자율적인 머신들은 수십만 명의 죽음을 초래하는 의사 결정 오류를 범할 수 있는데, 이는 인간이 루프 안에 있다면 피할 수 있을 것이다.

그러한 미래는 상당히 두렵지만 사회가 책임감 있게 로봇 기술을 채택한다면 잃는 것보다 더 많은 생명을 구할 수 있을 것이다. 그러한 미래는 합리적으로 두렵지만 사회가 로봇 기술을 책임감 있게 채택한다면 잃는 것보다 더 많은 생명을 구할 수 있다는 것이다.

로봇은 인간의 의사 결정을 모방하도록 인간이 프로그래밍 한 것이 아니다. 그들은 데이터에서 유도된 복잡한 수학 공식을 사용하여 '신호등 인식'과 같은 작업을 수행하기 위해 대규모 데이터 세트에서 학습한다. 이 기계 학습 프로세스에는 인간이 필요로 하는 것보다 훨씬 더 많은 데이터가 필요하다.

그러나 일단 훈련되면 로봇은 주어진 작업에서 인간을 능가할 것이며 AI와 로봇은 머신러닝을 통해 지난 5년 동안 성능을 극적으로 향상시켰다. 또한 학습할 데이터가 점점 더 많아짐에 따라 AI는 빠르게 개선되어 더욱 정확하고 적응력이 뛰어나고 안전해질 것이다.

그럼에도 불구하고 기계 오류로 인한 인명 손실에 대한 도덕적 이슈를 포함하여 대량 로봇 출시에 대한 주요 우려 사항이 여전히 존재한다. 이 도덕적 딜레마는 로봇과 인간의 인식이 다르기 때문에 악화되고, 그 결과 다른 유형의 실수가 발생된다

인간과 기계의 오류 사이의 차이는 로봇으로 인한 사망을 대중이 받아들이기 어렵게 만든다. 인간 운전자가 사망 사고를 일으키면 법에 따른 심판과 처벌을 받게 된다. 그러나 'AI의 블랙박스"는 판사와 대중에게 인간이 이해할 수 있는 또는 법적, 도덕적으로 정당한 용어로 AI의 의사 결정을 설명할 수 없다.

많은 생명을 구할 수 있기 때문에 한때 사람보다 약간 나은 것으로 입증된 로봇 기술을 출시해야 한다는 주장이 있다. 따라서 로봇에 더 많은 자율성이 부여되기 전에 인간을 지원하는 로봇 도구를 출시할 모든 기회를 잡아야 한다.

그런 다음 롤아웃은 더 널리 사용되기 전에 제한된 환경 내에서 이루어져야 한다. 이렇게 하면 더 많은 데이터를 수집할 수 있어 로봇 성능이 향상되고 인명 손실이 최소화 된다.

가능한 반대 의견을 감안할 때 우리는 단기적인 고통과 관련된 장기적 이익을 종합적으로 전달하기 위해 노력해야 한다. 그렇게 함으로써 우리는 책임감 있고 사려 깊은 머신 도입을 위해 검증에 검증을 더하고 노력해 나가는 이 채택 과정이 신중하고 거듭될수록 인류에게 더 큰 이익을 가져다줄 것이다.

 

저작권자 © 테크데일리(TechDaily) 무단전재 및 재배포 금지