반응형

컴퓨터의 성능, 대규모 데이터의 생성 및 처리 능력이 향상함에 따라 인공지능의 성능도 비약적으로 증가했다. 책임이 필요한 판단의 영역도 인공지능이 처리할 수 있게 되면서 인공지능이 사회에 미칠 다양한 영향력, 윤리, 책임에 대한 논의가 필요해졌다. 이른바 ‘로봇 윤리’(Robot Ethics)에 대한 논의다.

로봇 윤리의 등장 배경

최초의 로봇 윤리에 대한 사고는 공상과학(SF) 소설에서 등장한다. 한 번쯤은 들어봤을 ‘로봇 3원칙’이다. 과학 소설 저술가인 아이작 아시모프는 로봇에 관한 소설 속에서 ‘로봇 3원칙’이라는 로봇의 작동 원리를 제안한다. 이는 1942년작 단편 ‘런어라운드'(Runaround)에서 처음 언급됐다. 3원칙은 다음과 같다.

  • 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
  • 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
  • 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다. (출처 : 위키백과)

이처럼 로봇 윤리에 대한 논의는 이전부터 있었다. 그러나 로봇 3원칙의 유래가 공상과학이었던 것처럼, 이 논의가 당장 현실에서 필요하진 않았다. 하지만 지금은 상황이 조금 달라졌다. 백악관이 지난 10월 내놓은 ‘인공지능의 미래를 위한 준비’(Preparing for the Future of Artificial Intelligence)를 보자. 미국 국가과학기술위원회(NSTC)는 다음과 같이 윤리적인 문제에 대한 논의가 필요함을 말하고 있다.

 

MIT 미디어랩 스케일러블 코퍼레이션 ‘윤리기계’ 소개 동영상

 

 

 

출처 : http://www.bloter.net/archives/270256

 

반응형

+ Recent posts