AI 시스템이 한 행위는 특정 사람을 위하여 한 것인가? 아니면 자기를 위하여 한 것인가? AI 시스템은 컴퓨터프로그램(software)인가? 아니면 컴퓨터시스템(hardware)인가?

 AI 시스템이 한 행위는 특정 사람을 위하여 한 것인가? 아니면 자기를 위하여 한 것인가? AI 시스템은 컴퓨터프로그램(software)인가? 아니면 컴퓨터시스템(hardware)인가?

 * AI가 인간지능을 뛰어넘는 '특이점'(singularity)은 아직 먼 이야기이다 (“AI가 인간지능 뛰어넘는 '특이점'은 오지 않는다" -AI석학 제리 캐플런 미국 스탠퍼드대 교수). 따라서 본 글에서는 '사람 같은 지능과 자아를 지닌 '강한 인공지능(strong AI)'을 고려하지 않기로 한다.


최근 AI 프로그램을 이용한 대리행위에 관심이 뜨거워지고 있다. 심지어 단지 편리하고 저렴하고 신속하다는 이유로 권리를 취득하거나 포기하는 문제에도 AI 프로그램이 대신 해주기를 원하는 사람이 늘고 있다. 이러한 AI프로그램을 만드는 기업은 사람의 개입이 없는 위험성을 구체적으로 설명하지 않는다. AI프로그램이 인간보다 낫다고 설명한다. 아직은 모든 것이 실험단계이다.

AI 기술이 발전하면서 AI 프로그램은 정해진 시퀀스에 따라 특정의 행동을 자동으로 (automatically) 처리하는 수준을 넘어 자율적으로(autonomously) 처리하기 시작했다. 점차 정보를 제공하는 차원을 넘어 인간의 개입 없이도 스스로 합리적인 결정을 할 수 있다고 평가받기 시작하였다.

컴퓨터 프로그램을 이용하여 정형화(定型化)된 절차 또는 일상적인 통상의 행위를 자동으로 처리하는 수준은 종래 법제도 아래에서 법률 해석이 가능하였다.

그러나 장래 행위에 대한 결정을 자율적으로 하는 수준을 어떻게 해석하여야 하는지 논란이 일고 있다.

현재 AI 기술은 AI 프로그램이 어떤 문제에 답을 예측하거나 선택을 할 때, 어떤 의사나 어떤 인과관계를 따르는 것이 아니다. 단지 상호관계를 갖는 데이터를 통해 경험칙을 학습하여 확률적으로 선택하는 특정 알고리즘를 따른다

때문에 AI 프로그램이 어떤 선택을 할 때 왜 그런 선택을 하였는지를 근거와 함께 정확히 설명할 수 있는 사람은 없다빅데이터에서 찾은 경험칙에 의해 가장 높은 확률로 선택된 것이라는 것이 설명의 전부다.

다양한 법률리서치나 선행기술의 조사에 활용하면 큰 도움이 될 것이다. 특히 조사할 정보가 많을 수록 AI는 그 진가를 발휘할 것이다.

그러나 법률 문서의 작성이나 법적 선택을 전적으로 AI에게 의존한다면 아무도 그 위험을 예측할 수도 없고 책임도 지지 않을 것이다.

우리의 의사결정에는 위험을 감수(taking a risk)하는 과정이 따른다. 그런데 그 위험을 이해조차 할 수 없다면 그에 따른 위험을 감수할 수 없다. 우리는 이해할 수 없는 위험이나 관리할 수 없는 위험을 포기한다.

법률 문서를 작성하거나 법률행위를 선택하는 것은 법률 위험을 분석하고 선택하는 사고 과정을 거친 결과이다. 

이러한 사고 과정은 결과와 함께 고객이 이해하고 있어야 충분히 위험을 감수하고 자유롭게 의사결정 할 수 있다.

현재 약한 인공지능 수준에서는 AI 프로그램에 의사능력이 있다거나 내심의 효과의사가 존재한다고 인정하기 어렵다. 현재 AI 프로그램은 권리능력을 인정받지 못할 뿐 아니라 의사능력 역시 인정받지 못한다.

따라서 AI 프로그램은 대리인으로 인정되지 않으며 단지 자동화 처리의 도구로서 이해된다.

유엔 전자상거래모델법, 유럽연합 전자상거래지침, 미국 통일전자거래법, 미국 통일컴퓨터정보거래법에 전자대리인이란 개념을 도입하면서 자율적인 행위능력을 가진 전자대리인의 출현을 예정하고는 있지만, 현재는 자동화 도구로서만 그 효과를 전제하고 있다.

《AI 전자대리인 논의》

먼저, i) AI를 일종의 전자대리인”(agent)으로 취급하려고 해도 AI에게 의사능력이 없다는 점에서 AI에 의한 대리행위는 무효로 취급될 수 있다.

우선 현행 대리인제도는 법인격이 있어야 인정된다는 점에서 현행 제도상 AI는 대리인으로 보기 어렵다

유럽연합이나 미국에서 인정되는 전자대리인”은 정보처리시스템에 의하여 정해진 시퀀스에 따라 사람의 개입없이 자동으로 처리되는 프로세스에 적용되는 개념이다.

전통적인 현행 제도 안에서 대리제도는 타인(대리인)이 본인의 이름으로 의사표시를 하여 직접 본인에게 법률효과를 귀속시키는 제도로, 대리인에게 행위능력을 요구하지 않으나 적어도 의사능력은 필요로 한다.

또한 대리행위는 의사표시를 요소로 하는 재산상 법률행위에 한하여 인정된다. "발명"이나 창작과 같은 "사실행위"는 대리가 허용되지 않는다.

따라서 정보처리시스템에 의하여 정해진 시퀀스에 따라 이루어지는 일상적인 통상의 행위나 정형적인 프로세스에 대한 처리가 아닌 한, 의사능력이 인정되지 않는 AI의 대리행위는 무효로 볼 수밖에 없다.

《AI 도구론 논의》

다음으로 ii) AI단순한 도구”(tool)라고 취급할 경우에도 AI의 선택과 표시행위에 당사자의 의사가 존재하지 않는 경우 그 행위는 무효가능성이 있다.

도구(tool)론은 민법상 사자(使者)와 같은 면이 많다. 사자도 본인이 결정한 의사를 상대방에게 그대로 표시하는 도구다. 따라서 사자(使者)에게는 의사능력을 필요로 하지 않는다. 이 점에서 AI가 사자(使者)로서 취급하는 데 무리가 없다

그러나 사자(使者)의 의사표시 하자는 본인을 기준으로 하기에, 사자(使者)가 본인의 의사표시를 틀리게 전달한 경우는 의사표시의 부도달 내지 본인의 의사표시 착오가 된다. 

그러나 공법행위나 소송상 행위는 착오로 취소를 주정할 수 없으며, 본인에게 의사능력조차 없다면 이에 따른 법률행위는 무효가 될 것이다.

예를 들어 철수가 주식거래 AI 시스템에 제일 수익이 좋은 주식을 사고 싶다고 입력하자 AI 시스템이 자신의 모델링 알고리즘에 따라 알아서 특정 기업 A의 주식을 선택하고 자동으로 매수하였다고 하자. 그런데, 매수 후 기업 A의 사업에 치유할 수 없는 치명적인 문제로 주식이 급락하였다고자 하자. 철수는 AI시스템을 주식매수행위를 대행하는 도구로 사용한 것인데, AI제일 수익이 좋은 주식이 아니라 특정 기업 A의 주식을 매수하였다. 사실 제일 수익이 좋은 주식만으로는 거래의 대상이 특정되지 못한다. 이러한 예에서 주식거래소에서 이루어진 매매계약의 법률행위의 대상은 제일 수익이 좋은 주식이 아니라 특정 기업 A의 주식이다. 철수는 A 주식을 사려는 내심의 효과의사는 존재하지 않았으며, 의사표시는 완성되지 않았다. 이런 일이 당신에게 발생한다면 마치 만취상태의 인사불성 상태에서 누군가에게 속아 물건을 구매한 느낌이 들 것이다.


점차 더 많고 발전된 AI 대행/대리 플랫폼이 시장에 하나 둘 나오기 시작하고 플랫폼 기업끼리 차별화된 서비스를 경쟁적으로 제공하기 시작할 것이다

AI가 정보를 조사하거나 분석하는 능력은 그 조사/분석 대상이 크면 클수록 사람보다 우월하다. 이를 잘 이용하여 AI 시스템을 도구로 이용하는 지혜가 필요하다.

아직 AI는 정해진 범위 내에서 경험칙에 의존하여 확률에 의존하여 미래를 예측하고 선택하나 통찰력까지 갖추지 못하였다.

의사결정은 결국 인간의 몫이 되어야 한다. 모든 의사결정은 위험을 감수하는 과정이 포함되어 있으며 이 과정이 합당하여야 합리적인 의사결정이라고 한다.

또한 위험을 줄여야 한다. 선택의 위험을 줄이기 위해서는 여전히 전문적인 지식이 필요하다. 이때 AI의 도움은 유용할 것이다. 또한 자신의 판단이 편견에 빠지지 않았는지 참고로 비교하는데도 유용할 것이다.

따라서 위험이 정형화된 사건이나 계약은 AI를 이용한 전자대리인을 인정하고 활용하는 것은 현대사회에 유익할 것이다.

증명이 필요없을 정도로 자명한 사실관계가 아니라면 여전히 전문가의 도움이 필요하다.

Comments

Popular posts from this blog

DeepSeek model V3와 R1의 모든 것

법률문서 A and/or B

[라이선스계약실무] ‘제조’(make)에 대한 라이선스에 위탁제작(Have-made)하게 할 권리가 포함되어 있는가?