1 / 1
" human learning"으로 검색하여,
1 건의 기사가 검색 되었습니다.
-
2018-10-15미국 글로벌 IT기업 아마존에 따르면 인공지능(AI)을 이용한 근로자의 선발을 폐지한 것으로 드러났다. 근로자의 선발 과정에서 여성에 대한 차별이 존재했기 때문이다.인공지능에 사용되는 기계학습의 요점은 얼마나 빨리 배우는지에 관계없이 제시된 데이터로부터만 배울 수 있다. 아마존은 압도적으로 남성이 다수였던 과거의 고용된 구직자들 기록을 이용해 인공지능을 교육했다.결국 구직과정에서 여성들을 차별하는 프로그램을 가르쳤으며 인공지능은 대부분 남성 구직자를 추천했다. 제시된 데이터가 역사적인 차별 패턴을 반영한다면 이를 이용하는 인공지능도 그러한 패턴을 지속할 수 밖에 없다.또한 인공지능을 죄수들의 가석방을 결정하는데 사용할 경우에 비슷한 오류가 발생할 수 있다. 인공지능이 인간의 합리적인 판단을 도와주는 것이 아니라 과거의 사례에 종속되기 때문이다. 이러한 종류의 추론은 언어가 작동하는 방식에 함축돼 있다. 기계학습은 이전에 언어를 사용했던 모든 사람들의 지혜와 어리석음을 모두 암호화한다.언어의 패턴은 그 방식이 돼야 하는지 여부와 상관없이 세상이 어떤 방식으로 되어 있는지를 묘사하므로 사용의 '존재'와 '꼭 필요한'것을 구별하고자 할때 지속적인 공동 노력이 필요하다는 것을 알 수 있다.인공지능은 이미 우리 주변에 있으며 항상 프로그램을 선호하고 컴퓨터 자체만큼 데이터를 공급하는 인간으로 구성된 하이브리드 또는 공생 시스템이라고 볼 수 있다.인공지능은 이미 우리 중 하나이며, 이를 사용하는 회사, 사람 및 정부는 그 결과에 대해 책임을 져야 한다. 따라서 도덕적, 법적 책임을 시스템의 인간 부분에 부여하는 것이 필수적이다.아마존의 사례는 이 원칙이 보다 광범위하게 확장되어야 한다는 것을 보여준다. 전문가들은 인공지능은 인간의 판단을 보조하는 역할에 머물러야 하며, 인공지능이 주도하는 세상은 위험하다고 주장한다.▲ US-Amazon-AI-homepage▲ 아마존의 머신 러닝 개념도(출처 : 홈페이지)
1