■인공지능의 철학적 담론
인공지능에 대해 철학적 접근은 인공지능에 어떠한 사회적 지위를 부여할 것인가에 대해 초점이 맞춰져 있는 듯하다. 과학 및 기술의 발전 여지를 고려하지 않을 경우 기술 혁신이 발생할 때 처음부터 이를 모두 반영해야 한다는 전제가 붙기 때문이다.
오히려 다양한 형태의 인공지능을 수용할 수 있도록 준비를 해 놓는 것이 과학기술의 변화에 보다 유연하게 대응할 수 있을 것이다. 다만 염두에 두어야 할 몇 가지 포인트는 있겠다.
먼저, 책임이라는 개념을 생각해 볼 수 있다. 이 책임에는 다양한 형태가 있으며 더구나 이 개념이 중층적이며 다의적으로 구성돼 있기에 책임에 대한 개념은 문화 유형에 따라서도 다양하게 형태가 분화되어 있으며, 현대 사회에서 인식되고 있는 책임에 대한 개념도 역사적으로 형성되어 온 문화의 흡수과정에서 오늘날의 책임을 파악하여야 할 것이다.
이처럼 문화 속에서 책임을 이해할 경우 시민 혹은 사회제도의 측면에서 인공지능을 연계시킬 경우 심리학적 접근으로는 풀리지 않는 부분도 있을 수 있다.
1. 인공지능과 인간은 대등한 관계일 수 있는가?
이에 대해서는 인공지능은 인간과 대등할 수 있는지, 아니면 인공지능에게 어떠한 능력이 부여됐을 경우 인간과 대등한 존재가 될 수 있을까? 여기서 언급된 인간은 사회적인 인간으로 한 사람의 인간을 말한다. 한 발 더 나가 한 사람의 인간이란 누구인가라는 질문을 통해 현상의 개별 인공지능 기술을 대비한다면 어느 인공지능이 어떤 능력이 충분하고 어떤 능력이 부족한지에 대해 말할 수 있다. 그리고 그 인공지능에 법인격을 부여할 수 없는 근거를 제시하는 것도 가능할 것이다. 게다가 개별 인공지능에 대해 인간은 어떻게 관리해야 할 것이라는 대안도 나올 수 있다.
일반적으로 우리는 책임주체를 판단할 경우 행위를 먼저 생각하고 이 행위에는 의도적 행위와 의도하지 않은 행위로 분류한다. 의도적 행위를 하는 것이 가능한 경우 우리는 책임주체의 해당성을 검토하고 있으며, 의도하지 않은 행위에 대해서는 여러 예외 규정을 두고 있다.
이를 아리스토텔레스의 실천 3단 논법으로 설명해 보자. 아리스토텔레스는 의도적인 행위를 하기 위해서는 실천 3단 논법이 가능한 지적 능력을 가지고 있어야 한다고 설명한다. 즉, 행위의 대전제, 소전제, 그리고 행위의 과정을 거친다는 것이다. 예를 들면 건강한 음식을 먹어야 한다는 대전제, 그리고 눈앞에 있는 음식이 건강한 음식이라는 소전제, 그리고 그 음식을 먹는 행위로 귀결된다. 이러한 점에서 인공지능은 추론의 능력이 있다고 보여 책임주체가 될 수 있다는 결론을 내릴 수 있다. 다만, 의도적 행위의 결과가 잘못되었을 경우 ‘후회’라는 감정을 가지고 있는 것이 인간이 가지고 있는 조건이기는 하지만.
2. 인공지능에 의한 피해와 배상 능력
인공지능이 타인에 위해를 가한 경우 그 위해를 배상할 능력, 예를 들면 재산 등을 가질 능력이 필요하다고 보는 시각도 있다. 기계가 유발한 과거의 사건이나 사고의 경험을 필터링해서 활용하면 앞으로의 인공지능에 어떠한 반응을 기대하거나 우려가 무엇인지를 예측할 수도 있다. 따라서 이 부분에 대해서는 첨예한 의견이 대립될 수 있다. 인공지능의 개발·이용자의 입장에서는 인공지능의 개발·이용 과정에서 발생할 수 있는 위험을 예견할 수도 있을 것이다. 예를 들면 딥러닝 (deep learning) 등을 사용해 의료 화상 처리의 경우 인공지능의 개발자 입장에서는 반드시 처리상의 오류 혹은 예측할 수 없는 이상 작동으로 인해 사람의 생명이 위태로울 수 있음을 알고 있다. 그럼에도 이러한 의료기술 등의 인공지능이 의사의 능력을 넘어 유용하게 활용될 경우가 문제가 될 수 있다. 즉 개발자는 이용자가 통제할 수 없는 위험이라는 점을 알 수 있음에도 개발을 추진하는 경우이다. 이처럼 통제할 수 없는 혹은 통제되지 않을 것이 구체적으로 예견된 위험을 시장에 공급시키는 것을 허용해야 할 것인가에 대한 문제이다.
근대 형사법에 과실범의 기본적인 발상은 이처럼 통제되지 않는 위험, 특히 그 위험이 큰 경우 이를 강제적으로 통제시키는데 목적이 있다고 보면 개발자 그룹의 주장과는 상당 부분 갈등 관계는 지속될 것으로 보인다.
3. 인간의 자유와 자율성의 문제
학생들 사이에 유행하고 있는 과제물의 경우 실제 누가 작성했는지 알 수 없는 경우가 많다. 수업과 관련된 문언을 입력하면 관련된 보고서가 생성되는데 상당 부분 인공지능이 작성한 것으로 보이는 경우가 있다. 이 경우 무엇이 문제인가? 어떤 결과물이 제출될 경우 인공지능을 활용해 결과물을 제출하는 사람이 많을 것이다. 이 경우 첫째, 책임주체는 어디에 있을 것인가. 아리송하다. 인간에게 기본적으로 부여되었다고 생각한 자유나 자율성에 혼란이 올 수 있다. 이 문제는 실제로 자유나 자율성이 존재하는지에 대한 근본적인 의문을 던지게 한다. 실제 우리 사회는 “성인이 되면 자율성이 있다”고 約定적으로 정한 규범이 있는데 이러한 약정적으로 확보된 자유와 자율성이 실제 상황에서 혼선이 야기할 수 있다. 오히려 잘 훈련된 인공지능은 일반 인간에게 기계인지 아닌지를 분별할 수 없는 상황이 올 수도 있고 그러한 상황이 일상화 될 경우의 결과물을 제시한 주체는 누구이며, 그 주체는 자율성을 가지고 있다고 해야 할 것인가에 대해서 누구도 대답하지 못하는 상황이 그려진다.
새로운 변화의 출발점으로 인공지능의 출현이 인간의 모습을 어떻게 변혁시킬 것인지는 사회적·철학적 측면에서 많은 시사점을 주고 있다.