Ⅲ. 소프트웨어 제공자의 계속적 책임네트워크에 접속된 소프트웨어는 업데이트에 의해 수시로 오류를 해결하는 것이 일반적이다. 이러한 의미에서 자동차의 네트워크화는 해킹 등의 리스크를 고조시키는 반면 소프트웨어의 결함에 기인한 책임을 면할 수 있는 수단을 제공한다. 이를 반증하면 네트워크에 접속되어 있는 소프트웨어에 대해 오류 등의 리스크를 인식하면서 업데이트에 의한 리스크 제거를 게을리 한 경우 그 부작위 여하에 따라 책임의 원인이 될 가능성이 있음을 인정할 수 있다. 이는 자율주행시스템에 관한 미국의 권위적인 학자가 계속적인 관계에
2. 예정된 작동부전 - 정보의 완전성예상외의 사태가 사고로 연결된 경우와는 달리 자율주행시스템의 사양으로서 일정한 상황에서는 사고를 회피할 수 없는 경우도 있을 수 있다. 날씨나 도로면의 상태 등 외적인 상황으로 인해 센서가 사고발생의 위험을 감지할 수 없는 경우이다. 이는 정보처리능력의 한계의 문제일 수도 있어 이러한 경우 자동차의 안전성을 확보하기 위해서는 그 한계를 보완할 충분한 가외성이 확보돼 있어야만 한다. 이때 가외성이 발동할 수 있는 시그널(정보처리능력의 한계 밖이라는 정보)이 정확하게 발신될 필요가 있으며 그러한 의
Ⅰ. 문제 제기 자율주행기술이란 자동차의 운행을 컴퓨터 시스템에 의해 제어하는 기술을 말한다. 완전한 자율주행에 도달하기 전의 말하자면 레벨 2나 레벨 3의 자율주행 시스템에서 운전자에 의한 운행제어와 컴퓨터 시스템에 의한 운행제어가 병존하고 있지만 이 단계에서도 자동차는 컴퓨터에 차륜을 부착한 기계와 유사하다고 볼 수 있다. 이러한 인식에서 자율주행기술을 채용한 자동차의 사고에 대한 법률적 문제는 어떻게 처리해야 할 것인가? 이 경우 자동차 사고의 원인을 분석하고 사고와의 인과관계를 규명하는 것은 용이할 것인가의 문제가 제기된다.
5. 로봇이 보급하는 사회와 사회적 수렴 가. 로봇·AI법 총론과 로봇·AI법 각론그럼 로봇·AI가 보급한 사회에서 행정규제를 고려할 경우 어떠한 시점이 필요할까. 일본의 로봇안전정책의 권유자인 신보(新保) 교수는 이 점에 대해 각 행정영역에서 분할된 작업으로 검토할 것이 아니라 로봇이나 AI의 이용촉진을 위한 방침이나 정책 (전략)의 통일화를 이루면서 획일화하지 않은 다양하며 유연한 논의를 위해 다원적이며 다면적인 검토가 중요하다고 지적한다.로봇 및 AI법 제정의 방향은 현행법 체제에서 규제완화의 틀 속에서 자리매김을 해야 한다는
4. 로봇·AI의 보급에 의한 사회의 변화 그럼 로봇·AI의 보급이 성장기에 접어 든 사회에서 안전에 대해 개략적인 예측을 해 보기로 한다. 우선 확인해 둘 것은 앞에서 언급했듯이 신기술이 사회에 미치는 영향에는 바람직한 방향과 부정적 방향이 있다. 그리고 그 이행에 따라 사회적 과제도 생긴다는 점이다. 다음은 AI가 보급한 사회에서 어떠한 변화가 발생하는가를 ① 원래 존재는 하고 있었으나 신기술의 도입으로 확대되는‘낡고도 새로운 문제’② 지금까지 발생했던 과제에 유사한‘전혀 새로운 과제’③ 이행기에 따른 문제라는 3가지 관점에서
3. 기존 시스템과 신기술에의 대응 (상)그럼 서비스 로봇과 자율주행차라는 미래의 로봇·AI 제품에 대한 행정규제의 검토를 살펴보기 위해 현재의 법제도가 어떻게 체계화되어 있는지를 보자. 여기서는 이들의 법제도에서 이미 발생하고 있는 문제도 염두에 두고 이들의 법제도가 신기술과 어떻게 보조를 맞추고 있는지 혹은 어떠한 문제를 안고 있는지를 검토한다.가. 일상생활 속의 제품의 안전성AI가 탑재된 기기나 로봇은 그 성질상 전기제품으로서 사물의 측면을 가지고 있고 제어나 판단을 위해 소프트웨어가 조합된 제품이다. 또 이들의 능력을 확장하
2. 안전을 위한 법제도와 행정규제사회적 안전을 위한 행정의 역할은 무엇인가? 행정제도를 비교적 쉽게 이해하기 위해 일상생활과 밀접한 관련성이 있는 도로운송과 소비자안전을 중심으로 행정규제와 안전성 확보에 대한 개론적 차원에서 전체를 조망해 본다.가. 민사법·형사법과의 관계- ‘예방사법’으로의 행정규제행정법을 예방사법으로 인식해야 한다는 논의가 있다. 이는 기존 민사법·형사법에 의한 사후적인 손해배상이나 형벌로는 해결할 수 없는 분쟁이 존재하는 것을 말한다.우리가 행하는 사업적 활동, 혹은 상품 선택 과정에서 각각의 행위 주체는 활
1. 상상의 세계가 현실의 세계로인공지능이 탑재된 기기의 도움을 받으면서 로봇과 함께 생활하는 20세기 후반 사이언스 픽션 세계에서만 예상하던 생활이 21세기 들어서면서 우리 현실에 급속하게 다가왔다.번역 프로그램을 사용해 관광객을 안내하는 관광안내시스템, 와상환자를 돌보는 간병인을 위한 간병지원 셔츠, 실시간으로 이동 경로를 알려 주는 운행시스템 등은 이미 현실이다. 그런데 이러한 기기에 인공지능을 탑재해 학습시키게 될 경우 어떤 변화가 일어날 것인가? 또 만일 이들 기기가 사전 조정 과정을 거친 후 상호 연계하여 인간에게 서비스
3. 컴퓨터는 대리인인가? 도구인가?○ 代理法理의 적용을 둘러싼 미국의 태도미국에서는 컴퓨터를 대리인으로 보는 판결 사례(Automobile Insurance Co. v. Bockhorst)가 있으며 현재에도 구체적인 사안의 해결을 위해 법원이 컴퓨터를 대리인으로 볼 가능성이 있다. 그러나 현재의 일반적 견해로는 컴퓨터를 대리인으로 구성하기에는 다음과 같은 문제점이 있어 미국‘대리법 제3차 리스테이트먼트’해설에서도 컴퓨터를 대리인으로 하기에는 한계가 있다는 입장을 분명히 하고 있다.첫째, 컴퓨터는 사람이 아니기에 대리관계를 성정할
2. 인간·기계의 상호작용에서 계약이 성립하는가?□ 인간과 기계에 의한 거래와 계약법 관계행정규제, 자주규제 등 알고리즘 거래에 관한 각종 규범을 정하는 것은 시장의 공정과 공평이 확보되어야 가능하다. 그러나 컴퓨터 알고리즘 및 AI가 자동적으로 실시하는 거래를 각 계약으로서 어떻게 봐야 할 것인가는 이론상 아직은 명확하지 않다. 그 이유는 민법전에는 계약의 성립에 관한 명문의 규정이 없이 청약과 승낙이 어떻게 인정될 것인가에 대한 정함이 없기 때문이라 할 수 있다. 즉 청약과 승낙의 의사표시의 합치에 의한 합의의 형성이라는 전통적
민법상 계약은 사람이 아니면 체결할 수 없다. 자연인이던 혹은 법인이던 사람만이 계약에서 발생하는 권리 행사와 의무 부담이 가능하기 때문이다. 그러나 기술의 비약적 발전에 의해 사람간의 계약 사이에 사람의 행위를 기계가 대신하거나 사람 대신 계약을 체결하는 현상이 발생하고 있다.예를 들면 오늘날 금융시장에서 대부분의 거래는 알고리즘 거래라고 하는 컴퓨터의 자동 거래에 의해 수행되고 있다. 개인투자가 중에서도 자동매매 소프트를 사용해 주식을 매매하거나 로봇 자문을 이용해 자산운용을 하는 사람도 증가하고 있다.알고리즘은 문제 및 작업을
■종합적 검토1. 인공지능의 위험 통제에 대한 제도적 접근위험을 예측하면서 통제할 수 없는 객체를 유통시켜서는 안 된다는 근대 형사법의 원칙에 따를 경우, 자동차는 개발자가 이미 위험성을 인식하고 있으며 운전자에 의해 그 위험을 통제할 수 있다는 점에서 통제 가능하기에 유통이 가능한 객체라 할 수 있다.위험에 대해 통제 가능성을 가지고 책임을 논하려 할 경우 인간은 정말로 자기 자신의 신체를 통제할 수 있다고 볼 수 있는지에 대한 궁금증도 생긴다.인공지능이 개발, 발달의 단계를 거치는 과정에서 초기 인공지능을 인간의 어린이와 비교해
■인공지능의 철학적 담론인공지능에 대해 철학적 접근은 인공지능에 어떠한 사회적 지위를 부여할 것인가에 대해 초점이 맞춰져 있는 듯하다. 과학 및 기술의 발전 여지를 고려하지 않을 경우 기술 혁신이 발생할 때 처음부터 이를 모두 반영해야 한다는 전제가 붙기 때문이다.오히려 다양한 형태의 인공지능을 수용할 수 있도록 준비를 해 놓는 것이 과학기술의 변화에 보다 유연하게 대응할 수 있을 것이다. 다만 염두에 두어야 할 몇 가지 포인트는 있겠다.먼저, 책임이라는 개념을 생각해 볼 수 있다. 이 책임에는 다양한 형태가 있으며 더구나 이 개념
■형사법적 접근에 대한 이해 인공지능 (AI)과 인간이 서로 상호작용을 통해 공생해 가는 사회를 일부 학자들은 ‘친숙사회’라 칭하고 있다.인공지능의 개발을 담당하는 공학자 그룹은 주로 인공지능의 자율성의 검증과 인간과의 상호작용의 측정을 실시하는 반면, 인공지능이 초래할 사회적 문제를 염려하는 법학자 그룹은 인공지능에 법인격을 부여하기 위한 조건을 탐구하고 인공지능의 법적책임에 대해 검토하고 있다. 특히 인공지능의 특성에 따른 형사법 제도를 실현하고 친숙사회에서 인공지능의 법적책임을 적절하게 규명하기 위해 현행 형사법의 한계를 극복
3. 처리장치·서비스에 관한 법적환경① 개인정보개인정보보호법 제도에 관해서는 사업자가 설치주체가 되어 적용 법률이 달라진다는 문제가 있다. 또 센서 등으로 취득한 정보가 개인정보에 해당하는 경우, 이를 제3자에게 제공하려면 원칙적으로 본인의 동의가 필요하다.이 본인의 동의가 필요 없기 위해서는 통계정보로서 제공자 측에도 복원불가능 할 정도로 개인정보에 해당되는 내용을 완전히 없앨 것인지, 아니면 익명 가공정보로 처리하는 등의 방법이 있다.특히, 개인정보보호법은 새로운 개념으로서 필수적으로 배려해야하는 내용이 들어 있으나 이에 해당하
IoT를 둘러싼 법적환경을 고려할 경우 무엇보다 어떤 문제가 제기될 수 있는지를 예측하고 이에 대한 대응 과정을 검토할 필요가 있다.이를 이해하기 위해서는 먼저 IoT 시스템의 체계를 분석하고 민법상 동산(動産)에 대한 유체물과 무체물로 분류하여 법의 적용 여부를 판단해야 한다.IoT 시스템의 구성 요소별로 분류하여 사고 발생이 예견되는 지점은 크게 ① IoT 단말에 의헤 발생하는 경우 ② IoT 단말에서 처리를 하는 서버 등의 통신 과정에서 발생하는 경우 ③ 처리를 실시 할 경우 서버 등 처리 장치나 서비스에 의해 발생할 수 있다
◆국제표준의 필요성전술한 바와 같이 IoT에 대해서는 커다란 기대를 모으는 한편 다양한 리스크 및 우려되는 폐해도 있어 IoT를 적절하게 이용하기 위해 유의해야 할 사항도 많다. 그중 하나가 IoT의 구축 운용에 관한 규준이나 규격을 정비하는 것이다. IoT는 한 국가나 특정 업계만이 아닌 모든 국가 혹은 지역의 기업이나 생활하는 다수가 이용하게 된다. 전화나 인터넷처럼 IoT도 사회 인프라의 하나로 특정 국가나 기업이 독점할 수 있는 것은 아니다.따라서 IoT의 네트워크 구성 및 기기의 통신방식, 데이터 형식 등은 글로벌 규모로
◆인류 역사에 있어 과학기술의 공과역사 이래 인류는 다양한 기술을 개발하고 이용함으로써 어려움을 극복하고 생활을 윤택하게 해 왔지만 이러한 기술이 항상 평화적이고 인도적인 목적으로만 이용되지는 않아 그로 인한 부작용도 수반하면서 발전해 왔다. 대표적으로 자동차는 편리성을 추구한 이동수단으로 기여했으나 대기오염 등의 기후변화를 유발하고 있으며, 원자력은 전력의 안정공급에는 기여했으나 핵무기나 원전사고가 발생할 경우 인류에게는 커다란 재앙이 되기도 한다.이처럼 과학기술은 우리들의 생활을 편리하고 윤택하게 하는 반면 인간 및 생태계에 위