■형사법적 접근에 대한 이해
인공지능 (AI)과 인간이 서로 상호작용을 통해 공생해 가는 사회를 일부 학자들은 ‘친숙사회’라 칭하고 있다.
인공지능의 개발을 담당하는 공학자 그룹은 주로 인공지능의 자율성의 검증과 인간과의 상호작용의 측정을 실시하는 반면, 인공지능이 초래할 사회적 문제를 염려하는 법학자 그룹은 인공지능에 법인격을 부여하기 위한 조건을 탐구하고 인공지능의 법적책임에 대해 검토하고 있다. 특히 인공지능의 특성에 따른 형사법 제도를 실현하고 친숙사회에서 인공지능의 법적책임을 적절하게 규명하기 위해 현행 형사법의 한계를 극복하기 위한 논의가 한창 무르익고 있다.
1. 인공지능의 개발·이용을 둘러싼 형사법의 한계
근대철학은 엄격한 ‘주객이원론’ 및 ‘자유의지론’에 기원하면서 완전한 자유의지를 구비한 주체에 의한 완전한 객체의 통제라는 기본적 도식을 활용하고 있다. 즉, 사물은 주체에 의한 완전한 통제 대상인 객체라는 인식이 전제되어 있다.
객체인 사물이 위험을 발생시킨 경우에는 그 사물을 통제해야 할 주체에게 통제에 실패한 경우 형사벌을 부과한다는 것이다. 이러한 근대철학의 영향을 받은 형사법에 대해 민사법은 로마법 이후의 영향 및 근대 이전의 사상을 채용하게 되면서 항상 자유의지를 갖추고 있는 주체에 의한 완전한 객체의 통제라는 엄격성에서는 조금 벗어나 있다고 보인다.
따라서 예를 들면 일정의 위험한 관리자에 대해 과실의 유무를 불문하고 책임을 부담시킨다는 위험책임원리에 따라 혹은 통제할 수 없는 위험을 당연한 전제로 하는 보험제도의 존재 등의 민사법은 형사법의 법사상과 상당히 떨어져 있음을 알 수 있다.
즉, 근대철학에 입각해 인공지능의 개발·이용을 둘러싸고 직면하는 각종 법적 문제에 현행 민사법의 개입 없이 종료될 경우 형사법 영역에서 이론적으로 다수의 곤란한 문제가 발생하게 된다. 그러한 점에서 인공지능의 개발·이용과 관련된 법적책임에 형사법 분야의 논의가 필요한 지점이기도 하다.
2. ‘주체-객체’에 대한 해체
현행 형사법이 인공지능의 개발 및 이용을 둘러싸고 직면하는 법적문제는 크게 두 가지로 볼 수 있다. 하나는 인공지능의 발전적·유동적 성질이 원래 완전한 통제대상이라는 본질화된 객체의 성질과 떨어져 있다는 점이다. 또 하나는 인공지능의 발전과 공동 진화해 온 인지과학 및 뇌신경과학의 지식과 외적환경에 영향을 받지 않는 자유의지를 구비한 본질화된 주체라는 성질과는 상호 맞물려 있지 않다는 점이다. 이러한 이론적인 수준에서의 문제 이외에 현행 형사법은 기본적으로 주체를 처벌할지 여부에 대한 선택 방법 밖에는 없다. 그 결과 개발·이용자의 위험통제의 실패를 이유로 하는 과실범 등의 처벌 규정에 따라 처벌 혹은 방임의 양자선택의 방법 외에는 실천적 수단이 없다는 점도 있다.
이처럼 현행 형사법의 한계는 근대철학에 기인하고 있다는 점에서 그 한계를 극복하기 위해서는 근대철학과 다른 철학, 특히 주객이원론이나 자유의지론을 전제로 할 필요가 없는 철학에 의한 기본적 지침이 필요하다는 논리다.
3. 근대 형사법 철학의 전환기
근대철학과 대비한다는 점에서 ‘비근대적인 결착’을 제창하고 있는 브뤼노 라토루(Bruno Latour)의 주장이다. 라토루에 의하면 사람과 사물은 원래 상호침투적인 관계라 문제가 되는 것은 ‘인간은 어떠한 존재여야 하는가’ 혹은 ‘사물은 어떠한 존재여야 하는가’의 본질적인 결착이 아니라 양자의 관계성의 방향과 그를 행해 가는 것을 어떻게 규범적으로 평가해야 할 것인가라는 점에서 논의의 중점을 둘 것을 주장한다. 즉, 문제의식을 발전시켜 보다 실천적인 해결 방향을 찾자는 것이다.
또 하나는 피터 폴 페르벡 (Peter Paul Verbeek)이 제창하는 ‘합성지향성’이다. 합성지향성의 개념은 인간의 의식자체가 항상 외적환경과의 합성인자라는 것을 밝힌 후에 각각 움직이는 방법이 규범적으로 바람직한가라는 질문의 방향성을 정립하는 것이 가능하다는 점에서 주체와 객체의 본질화가 허용되지 않는 상황을 다루는데 중요한 역할을 할 수 있다는 점이다. 또 지향성 개념을 이용하는 목적으로는 최근 인지심리학에서 심리학적 주체성 연구가 현상학에서 파생하고 있다는 측면이 있어 철학적으로 타당한 동시에 실증적인 데이터를 활용할 가능성이 있다는 점을 들고 있다.
라토루와 페르벡의 견해를 통해 주체와 객체의 본질에 대한 고민에서 이 양자의 합성의 가능성에 무게를 둘 경우 인간은 어떠해야 한다는 근대적인 윤리적 질문에서 법규범을 도출해 왔던 기존 법학의 방법론은 대전환의 시대에 임박했다고 봐야 할 것이다. 아니 앞으로는 미셀 푸코가 말한 것처럼 인간은 앞으로 어떻게 되고 싶은가에 대한 삶의 미학에 대한 질문을 통해 법규범을 유도해 가야 할지도 모를 법학 방법론의 전환 시기를 맞이하게 될 것이다.
주체와 객체의 본질에 무게를 두는 것보다 양자의 관계성을 중시하는 철학 내지는 사상이 새로운 형사법의 이론적 기초를 토대로 인공지능의 개발·이용을 둘러싼 형사법 규제의 방향성에 대한 재검토도 필요한 시점이다.
첫째, 사물에서 인간에 대한 영향력을 정면에서 파악할 필요가 있다. 인공지능 그 자체의 교정에 초점을 맞춘 제도가 필요하다. 이는 인공지능의 리프로그래밍 및 이를 적용한 기기의 재설계를 형벌화해 인공지능 그 자체에 형사책임을 부과하고 필요한 교정이 없을 경우 그 유통을 금지하도록 강제하고 이에 대한 다양한 이해관계자의 협력을 구한다는 방법이다. 인공지능이라는 자연인 이외에 형벌을 가할 수 있는가라는 문제에 대해서는 법인처벌제도의 응응을 제시하고 있으며, 미국을 비롯한 여러 국가에서 법인의 구조개혁에 초점을 맞춘 ‘법인처벌제도’에 대한 검토가 이를 뒷받침하고 있다.
둘째, 교정의 방향성을 민주주의적인 과정에 의해 수행할 필요성을 제기한다. 이러한 해결은 법에 규정된 획일적 처리를 전제로 하는 근대법의 죄형법정주의의 속박을 벗어나기 위해 민주주의적인 통제의 확보가 중요한 의미를 갖게 된다. 페르벡의 ‘기술의 도덕화’에서 언급한 설계사상, 라토루의 ‘사물의 민주주의론’ 특히 법학 분야에서 미국 뉴욕대학교의 레이첼 발코 (Rachel Elise Barkow)교수가 주장하는 공공정책으로서 형사사법제도 등은 이러한 방향성을 보강하기 위해 중요한 의미를 가지고 있다.