안전한 인공지능이라는 것은....
로봇의 3원칙이라고 하면, 하나는 인간에게 해를 끼치면 안된다. 두번째, 눈에 반하지 않는 범위에서 인간의 명령에 복종시켜야 한다. 세번째, 첫 번째와 두 번째에 반하지 않는 범위에서 자기를 지켜야 한다.
로봇, 즉..이것은 인공 지능의 규칙이다. 언젠가 AI가 인간을 넘어서 세계를 정복한다는 세기말적인 생각으로 불안해하는 지금, 다양한 설이나 규칙이 제기되고 있는데, 예를 들어 마이크로 소프트의 CEO인 사티아 나델리 씨는 이렇게 생각한다.
6월 초에 Google 엔지니어가 인공 지능의 안전 룰 5개 항을 보고서로 정리, 발표했지만, 이번 나델리 씨가 인터뷰에서 밝힌 6개항은 좀 더 일반적으로 해설한 것....
제1 : AI는 인간의 어시스트를 하기 위해 개발되어야 한다.
물론 그렇겠지요.
제2 : AI는 투명성이 있어야 한다.
기술은 사람을 알지 않으면 안되지만, 인간도 기계를 알지 않으면 안된다고...
제3 : AI는 인간의 존엄성을 해칠 수 없는 범위에서 효율 극대화해야한다.
효율성이 중요한 반면, 문화와 다양성은 남겨 두어야 하며, 테크 산업이 미래의 가치와 장점까지 결정해야 하는것은 아니라고 지적되어 있다.
제4 : AI는 지적 개인 정보 보호를 위해 개발되어야 한다.
지적 프라이버시라는 것은, 개인 및 그룹 정보를 복잡한 구조로 보호하는 것으로 신뢰를 얻을 수 있다고 말하고 있다.
제5 : AI는 알고리즘적인 책임이 있어야 한다. 이것은 인간이 본의아니게 피해를 추가했다면, 그것을 철회 할 수 있도록 하기 위한 것이다.
만일의 경우 취소 할 수 없다는 것은 무서운 것이다...
제6 : AI는 차별과 편견을 방지하고, 적절한 본보기가 되는 연구을 보증해야 한다.
과거에 Google의 알고리즘이 흑인을 고릴라로 태그하는 등 시스템의 결함, 오류가 발생하고 이를 방지 할 수 있는 것이 AI가 차별의 도구로 전락 하는 것을 방지하기 위해 필요한 이야기.
점점 활용도가 넓어지고, 지능도 올라가는 AI(인공 지능). 당신은 미래의 AI에게 인간을 위해 무엇을 주문하고 싶은가요?
절대 터미네이터와 같은 일이 벌어지지 않도록 할 것인가요?