1 / 1
" ethics"으로 검색하여,
2 건의 기사가 검색 되었습니다.
-
2018-10-31미국 최고 대학인 매사추세츠공과대(MIT)에 따르면 실험용 온라인 플랫폼을 이용해 자율주행 차량에서 도덕적 프로토콜을 탐구한 결과를 발표했다. 모럴 머신(Moral Machine) 실험으로 불리는 이 연구결과는 네이처(Nature)지에 공개됐다.약 4000만 건의 응답을 통해 도출한 실험결과는 로봇 기술자, 윤리학자, 제조업체 및 정책결정자에게 많은 윤리적 문제점에 대한 고민을 안겨준 것으로 평가된다.윤리적 딜레마의 핵심은 위험을 피할수 없는 환경이 조성될 때 자율주행 차량이 선택해야 하는 기준이다. 예를들어 차량이 길을 따라 가다가 어린이, 성인, 동물 등이 갑자기 밖으로 나가면 어떻게 해야할까?보행자(또는 동물)를 피해 승객을 부상당하거나 죽이게 해야 하는가? 아니면 승객을 보호하고 보행자를 해치거나 죽여야 하는가?이 실험의 시나리오는 9가지 유형의 딜레마를 조사해 상황에 대한 판단, 보행자의 나이 또는 성별 및 관련된 보행자 수를 묻는 방식으로 진행됐다.때때로 다른 요인들이 추가됐다. 예를 들어 보행자는 임신했을 수도 있고 매우 높거나 혹은 낮은 사회경제 계층의 구성원일 수도 있다.이 연구결과에서는 동물에 대한 인간의 보살핌, 더 많은 생명의 보전 및 어린 생명의 보전이 우선적으로 선호돼는 것으로 나타났다.따라서 이러한 3가지 선호는 기계윤리를 위한 필수 구성요소로 간주되거나 정책입안자가 고려해야 할 필수적인 주제로 자리매김할 수 있을 것으로 평가된다. 의사 결정에서 일치되지 않은 요인으로는 사회적, 문화적, 경제적인 요인 등이 존재한다. 예를들어 개인주의 문화와 집단주의 문화 사이의 차이는 보편적인 기계윤리의 중요한 장애물이 될 수도 있다.과학자들은 실험결과가 자율주행 차량을 위한 윤리강령에 최종적으로 서명해야 하는 실험실, 공장 및 정부의 사람들에게 신뢰할만한 데이터를 제공할 수 있을 것이라고 주장했다.▲ US-MIT-automonouscar-MoralMachine-homepage▲MIT의 모럴 머신 실험자
-
영국 상원(House of Lords)에 따르면 인공지능(AI)기술을 규제할 수 있는 윤리(Ethics)가 중요하다고 강조했다. 인공지능 시스템이 오작동을 일으키거나 사용자에게 위협을 가할 수 있기 때문이다.따라서 영국의 제반 관련법률이 인공지능의 사용과 개발을 충분하게 통제할 수 있는지 여부를 판단하기 위해 노력하고 있다.인공지능 기술의 경제적, 윤리적, 사회적 영향을 미리 파악해 대비할 필요가 높다고 판단하는 것이다. 최근 주식거래를 판단하는 인공지능시스템의 오작동으로 인한 폐해가 빈발하고 있는 것도 법률 전반을 검토하는 이유다.상원의 관련 위원회 위원들이 2017년 9월 구글의 인공지능 개발회사인 딥마인드(DeepMind)를 방문했다. 국내 169만명 이상의 부모에 관한 개인정보가 딥마인드에 불법적으로 이전된 것으로 드러났기 때문이다.▲영국 상원(House of Lords) 로고
1