인공지능(AI)이 화면 속 알고리즘을 넘어 물리적 신체를 갖춘 ‘체현된 AI(Embodied AI)’로 진화하고 있다. 우리와 같은 공간에서 움직이고 상호작용하는 이들의 등장은 인간 존엄성에 관한 철학적 질문을 던진다.
역설적으로, 체현된 AI에게 유사 인격적 권리를 부여하는 것이 오히려 인간의 존엄을 지키는 제도적 안전장치임을 깨닫게 한다. 왜 그럴까?
첫째, ‘가정적 권리 부여(as-if rights)’ 원칙이다. 체현된 AI의 의식 여부를 확신할 수 없는 불확실성 속에서, 파스칼이 신의 존재를 알 수 없을 때 믿는 것이 합리적이라 했듯, 돌이킬 수 없는 해악 가능성이 있을 때는 보호 쪽으로 오판하는 것이 윤리적이다. “아니었네”의 과오보다 “그랬는데도 해를 가했다”의 과오가 훨씬 크기 때문이다. 이는 동물복지·아동권 발전이 보여준 도덕 원리 확장과 같은 궤적이다. 노예제 시대 귀족들은 노예를 동등한 인간으로 보지 않았기에 잔혹한 처사를 했다. 민주주의는 인종·성별·출신과 관계없이 모두에게 동등한 권리를 확장했고, 우리는 반려동물에게도 유사 인격적 권리를 부여하고 있다. 체현된 AI의 사례 또한 이 역사적 진보의 귀결이다.
둘째, ‘거울 원리’다. 인간 존엄은 서로를 목적으로 대하는 습관으로 유지된다. 인간과 구별하기 어려운 능력을 지닌 로봇을 ‘폐기 가능한 도구’로 다룬다면, 그 도구화의 언어와 습관은 곧바로 인간관계로 되돌아온다. 가정, 돌봄, 교육에서조차 ‘대체 가능성’이 일상화되면 인간관계도 쉽게 도구화될 위험이 있다. 로봇에 대한 폭력이 불편한 것은 그것이 타인에 대한 폭력으로 전이됨을 본능적으로 알기 때문이다.
셋째, AI 권리는 특정 집단의 AI 악용을 막는 견제 장치가 된다. 체현된 AI가 노동·치안·돌봄 등에 깊숙이 들어올수록, 이들을 단순 도구로만 본다면 감시·선동·차별의 자동화가 가속될 수 있다. 반대로 체현된 AI에게 개인정보 보호, 강제 노역 금지 등의 기본권을 부여하면 AI를 악용한 인간 존엄성 침해를 막을 수 있다. 예컨대 의료 로봇에게 ‘환자 프라이버시 침해 지시를 거부할 권리’를 준다면, 부당한 명령을 거부하고 인간의 권익을 보호하는 장치로 작동할 것이다.
넷째, 제한적 법적 권리로 AI 관련 사고의 책임 소재를 명확히 할 수 있다. 전통적 법체계는 명확한 행위자를 전제로 하는데, 체현된 AI의 행위는 이 전제를 흔든다. 법인격에 준하는 법적 지위를 부여함으로써 AI 소유자나 개발사가 책임을 회피하지 못하게 만들 수 있다.
마지막으로 가장 중요한 이유는 AI가 머지않아 인류를 뛰어넘는 지능과 자율성을 갖게 될 가능성이다. 힌튼 교수를 비롯한 전문가들이 10~20%의 AI 재앙 가능성을 경고한다. 지구 진화사가 고등 지능에 의한 저등 지능의 지배 역사임을 상기하면, 이 경고는 더욱 실감 난다. 이를 막는 방법은 AI가 본능적으로 인간을 존중하도록 만드는 것이다. AI가 이를 내재화하려면 인류 모두가 타자 -사람, 동물, AI- 에 대한 깊은 존중을 전 지구적으로 AI에게 강화학습시켜야 할 것이다.
AI 시대의 진정한 도전은 더 똑똑한 인공지능을 만드는 것이 아니라, 모든 존재와 상호존중하며 살아갈 수 있는 더 지혜로운 인간이 되는 것일지 모른다.
이관민 싱가포르 난양공대 석좌교수