Ⅰ. 서론 Ⅱ. AI 1. AI 의 등장과 현황 2. AI 사용에 따른 문제 Ⅲ. 예전(禮典) 1. 예전 발간의 의의 및 예전의 주요 내용 2. AI 시대에 맞는 예법 개정의 필요성 Ⅳ. AI 시대에 맞는 예법 개정 1. 예법 개정의 방향 2. 개정예법: 인공지능의 예 Ⅴ. 결론
Ⅰ. 서론
인간은 자연 속에서 수많은 위험과 함께 하며 생존을 위해 불을 이용하고 청동기에서 철기시대로 발전을 하며 무기와 기구들 또한 발전시키며 생존을 위해 노력해 왔다. 이러한 과학발전은 인류에게 편안과 풍요를 가져다 주었고, 점차 그 발전 정도가 가속화되었다. 과거에는 사람이 해왔던 작업들을 점차 기계가 대신하게 되며 안전과 효율을 동시에 올려왔다. 과학은 사람이 연구를 통하여 발전시키는 것이 일반적이나 앞으로의 시대는 사람을 통하지 않고도 과학이 과학을 발전시키는 시대가 올 것이라고 과학자들은 예측하고 있다. 그리고 이를 가능하게 하는 것이 인공지능이라 말한다. 근대시대부터 등장하였으나 최근에 다시 대두되기 시작한 인공지능은 단순히 반복작업을 하는 것에서 그치지 않고 물어보는 것에 무엇이든지 대답하는 인공지능뿐 아니라 몇가지 단어를 통하여 웅장한 미술작품을 단 몇초만에 만들어내거나 기존에 회손되어 복구하기 어려웠던 작품들을 복구해내거나 확장시키는 인공지능 그리고 수시로 변해가는 도로 위의 수 많은 변수들을 단시간에 판단하고 이에 대한 반응을 나타내는 고도의 인공지능을 탑재한 차량까지 나타나게 되었다. 과학의 발전에 따라 산업현장과 같은 특수한 목적에서만 사용되었던 인공지능이 이제는 우리의 생활 곳곳에서도 손쉽게 찾아볼 수 있게 되었으니 이는 가히 혁명적이라 할 것이다.
최근 행정안전부가 실시한 여론조사에서 인공지능 적용의 필요성이 화두가 됐다. ‘정부 서비스 인공지능 기술적용 필요성’에 대해 74.2%가 필요하다고 답한 것이다. 조사에 응한 국민의 85.7%는 인공지능의 개념을 인지하고 있었으며, 인공지능 적용이 요구되는 서비스로 ‘민원신청 및 처리’가 무려 38%를 차지했다. 그리고 행정 정보에 대한 안내가 22.1%, 콜센터 등 궁금한 사항에 대한 질의응답이 21.7%였다. 또, 인공지능을 우선 적용해야 하는 분야로 ‘의료·복지’가 30.3%로 가장 많았으며, 주민 생활 20.1%, 교통·이동 18.4%, 환경 16%를 각각 차지했다.
위의 내용은 2019년 8월 ETRI 한국전자통신연구원에서 발표한 자료로써 앞으로 시대의 새로운 국가 경쟁력의 핵심은 인공지능이 될 것이라 예측하고 있다. 인공지능은 미래 국가와 산업의 경쟁력을 좌우하는 핵심 자원으로 떠오르고 있다. 무엇보다 인공지능은 그동안 풀지 못했던 사회 현안을 풀 수 있는 중요한 역할을 할 것으로 예상된다. 가령 도시·교통, 복지·의료, 에너지·환경, 국방·안전 등 전 분야를 아우르는 핵심기술이 될 것으로 기대된다.
현재의 시대가 보여주는 시대적 흐름은 마치 과거 산업혁명때의 시대적 흐름과 비슷한 양상을 보여주고 있다. 즉 큰 발전이 있고 난 후에는 이로 인한 사회적, 세계적 문제들이 뒤따라 등장하였다. 그리고 그 원인은 발전된 기술을 정의(正義)롭지 못하게 이용하였기 때문이다. 기술을 정의롭게 사용하기 위해서는 도덕성이 함양되어야 한다. 도덕성을 함양하는 방법은 다양하다. 직접 예절교육과 같은 수업을 통하여 배울 수 있고 간접적으로 다도나 선을 하는 것도 도덕성 함양에 도움이 될 것이다. 그러나 도덕성이란 도덕에 대한 충분한 이해가 없이는 형식만을 갖추는 겉치레에 그칠 수 있기 때문에 도덕이란 무엇인지에 대한 충분한 이해는 곧 도덕성 함양의 근본적인 방법이라 할 것이며 그 방법 가운데 하나로써 원불교 예전을 통한 이 시대에 ‘예’의 실천을 제시한다. 예는 유가에서 제시한 윤리규범의 하나로 예에 대한 해석은 해석하는 사람에 따라 조금씩 달라지나 그 핵심은 공경하는 마음이라 할 수 있다. 원불교 예전에서는 예를 최령의 가치를 이루고 공중 도덕과 사회 질서를 유지시키는 인류 생활에 중대한 일이라 밝히고 있다. 예전이 발간되었던 1923년은 과거에 비해 크게 변화된 시대로서 그에 맞는 새로운 예법을 필요로 하였기에 원불교의 교조인 소태산 박중빈 대종사(이하 소태산)는 예전을 편찬하게 된 것이다. 예전은 시대가 도덕을 실천할 수 있도록 권장하는 내용으로 이루어져 있다. 4차 산업혁명시대 또는 AI시대라에 맞는 새로운 예법을 세상은 필요로 하고 있다. 예전은 지금 시대에 활용하기에 부족함이 없는지 검토해볼 필요가 있다. 그렇기에 이를 위하여 AI가 무엇이며 지금 시대에 AI는 어떠한 위치와 문제를 가지고 있는지 밝히고 이어서 예전이 발간된 의의와 왜 예전 개정이 필요한지에 대하여 논거한 후 AI 시대에 새로운 예법의 필요성과 더불어 예법 개정에 대한 방향과 예시를 나타내고자 한다.
Ⅱ. AI
1) AI의 등장과 현황
AI란 Artifcial Intelligence의 줄임말로서 국문으로는 인공지능이라 이름하고 있다. 인간의 학습능력 및 이로부터 파생되는 추론 지각, 판단 능력 등의 여러 이성적 능력(intelligence)을 인공적으로(artificially) 구현한 컴퓨터 소프트웨어 프로그램 또는 이 소프트웨어 프로그램과 하드웨어를 결합한 컴퓨터 시스템 전체를 의미하며 또한 그와 같은 인공적 구현을 할 수 있는 방법론이나 실현 가능성 등을 연구하는 과학 분야를 지칭하기도 한다.
AI에 대한 가능성은 이미 1940년대 인공두뇌라는 이름으로 등장하여 뉴런이라는 신경전달체가 전기적 신호를 통하여 신체의 정보를 전달하는 것을 보며 뇌를 뉴런을 통한 하나의 전기적 네트워크라는 점에서 아이디어를 얻어 월터 피츠(Walter Pitts, 1923~1969)와 워런 매컬러(Warren Sturgis McCulloch, 1898~1969)는 어떠한 형태의 계산이라도 디지털 신호로 표현할 수 있을 것이라는 가설을 세워 인공적인 신경 네트워크를 기술을 발명하였고 이를 바탕하여 마빈 민스키(Marvin Lee Minsky, 1927~2016)가 SNARC(Stochastic Neural Analog Reinforcement Calculator)라는 첫 신경 네트워크를 탑재한 기계를 개발하게 되었다. AI라는 용어는 1956년 미국 다트머스 대학에서 마빈 민스키와 당시 다트머스 대학 수학과 교수였던 존 맥카시(John McCarthy, 1927~2011) 외 총 10명이 참여한 다트머스 회의에서 처음 등장하였다.
이 당시의 AI는 디지털 컴퓨터가 아닌 수많은 진공관을 장착한 아날로그 회로 기판으로 간단한 사칙연산을 해내는 계산기로써 당시에는 큰 발명이었으나 현대의 시점으로 바라보았을 때는 단순한 계산기에 불과하였다. 허나 인터넷과 클라우드 기술의 등장과 발달은 AI기술의 핵심인 데이터를 대량으로 수집하고 저장할 수 있게 되었고 이와 더불어 CPU(Central Processing Unit) 또는 GPU(Graphic Processing Unit) 같은 연산 하드웨어 기술의 발달로 빠르게 수집된 대량의 데이터의 패턴을 파악하고 연산하여 처리할 수 있게 되었고 이로써 AI기술이 현실에서 활용될 만한 가치가 나타나게 되었다.
기술의 확보는 세계적으로 AI기술의 열풍을 불게 하였고 사칙연산과 같은 단순한 명령체계를 넘어 광대한 데이터 속에서 사용자가 원하는 결과를 도출해내는 상호작용이 즉각적으로 이루어지는 복잡한 명령체계를 완벽에 가깝게 해결해가는 수준에까지 이르게 되었다. AI기술은 점차 인간의 생활에 가깝게 다가오고 있다. 현세대를 살아가는 사람들에게 필수품이라 할 수 있는 스마트폰에는 말을 인식하고 명령에 해당하는 행동을 취하는 AI가 기본적으로 탑재되어 있으며 결제를 하거나 휴대폰 잠금을 해제하기 위하여 패턴, 비밀번호 또는 지문이나 얼굴인식등을 하는데에도 간단한 AI가 활용되고 있다. 산업현장에서는 공정과정에서 불량품을 검사하거나 어떠한 제품을 출시하기 전 미리 상품성을 예측해보는데에도 AI가 사람 대신 투입되어 활용되고 있다. 한 예로써 세계적 쇼핑 플랫폼인 아마존(Amazon)에서는 매일같이 쏟아지는 대량의 주문을 원활하게 해결하기 위하여 그에 걸맞는 크기의 물류센터와 AI와 로봇을 이용하고 있다. 넓은 창고를 효과적으로 활용하기 위하여 많은 로봇과 AI가 사용되고 있다. 주문을 받아 처리하는 AI와 이를 적당한 물류창고로 명령을 전달하는 AI 그리고 물건이 있는 위치에 배정된 로봇에 명령하는 AI와 이를 찾고 포장하고 주문자의 지역별로 택배를 분류하는 작업을 하는 AI까지 수많은 AI가 일련의 작업들 속에서 유기적으로 연결되어 이어지고 있다.
AI는 사회 전반에 만연하여 현시대에 빼놓을 수 없는 지위를 가지고 있다 하여도 무방할 것이다. 그리고 이러한 AI는 기술적 진보가 급속히 이루어지고 있다. AI의 발전은 물리적인 기술 발전에도 한몫하고 있으나 데이터 처리능력과 같이 비물리적인 형태의 기술의 발전에서 중요한 위치를 차지하고 있다.
AI가 하는 일을 간단히 요약하면 ‘주어진 데이터를 통하여 가장 합리적인 결과를 예측하는 것’이다. 사람이 움직이는데 열량을 필요로 한다면 AI는 데이터를 연료로 사용한다 볼 수 있다. AI의 핵심은 빅데이터 속에서 필요한 데이터를 얼마나 효율적이며 빠르게 처리하는가에 있다. 이는 단순히 처리(연산)능력만 높다고 해결되지 않는다. 속도만 빠르고 원하는 결과에 맞지 않는다면 문제를 보지도 않고 답을 적는 것과 같을 것이다. 그렇기에 이 정확성을 올리는 작업을 필수적이라 할 수 있다. 정확성을 높이는 방법으로는 머신러닝(Machine Learning), 딥러닝(Deep Learning)의 2가지가 대표적으로 사용되어지고 있다. 머신러닝이 딥러닝을 포괄하는 개념이지만 둘의 차이는 인간의 개입에 있다. 머신러닝은 AI를 학습시키기 전 데이터에 사람이 개입하여 특정한 모델과 패턴을 추출한 뒤 이를 학습시켜 추론할 수 있도록 하는 기술이고 딥러닝은 사람의 개입 없이 컴퓨터 스스로가 데이터마다 가지고 있는 특성을 찾아 추려내어 정의하는 작업이다. 우리는 생활 속에서 AI를 학습시키고 있다. 인터넷 사이트에 접속하면 간혹 CAPTCHA(Completely Automated Public Turing test to tell Computers and Humans Apart) 친숙하게는 ‘나는 로봇이 아닙니다(I’m not a robot)’라고 부르는 인증시스템은 우리에게 AI가 구별하기 힘들어하는 사진이나 그림을 보여주고 제시문에 해당하는 부분을 고르는 방식으로 인증이 진행되는데 이러한 방식을 통하여 인증과 동시에 AI에게 특정한 패턴을 학습시키는 작업에 활용되며 이는 머신러닝방법 가운데 하나로 사용되고 있다. 딥러닝 부분에서는 우리가 Youtube 또는 Netflex 와 같은 영상플렛폼에서 영상을 시청하다보면 AI가 사용자가 보는 영상의 패턴을 파악하여 이와 관련된 영상을 보여주는 것으로, 주어진 값의 패턴을 점진적으로 파악해 합리적 결론을 이끌어내는 이러한 형태를 알고리즘이라고도 한다.
이상과 같이 AI기술은 이 시대를 대표하는 기술이자 앞으로의 시대에 필수적인 산업이라 할 수 있을 정도로 발전하고 있고 이는 또한 현대인에게도 적용되는 사실일 것이다. 하지만 이러한 AI는 발전을 거듭할수록 인간에게 편의와 동시에 공포를 주고 있다.
2) AI 사용에 따른 문제
최초의 AI가 맡은 역할은 인간이 해야 할 단순 반복작업을 대신하는 것이었다. 공장에서 컨베이어 벨트를 통해 전달된 제품을 레버를 당겨 프레스를 누르는 작업이라던가 뒤집기만 하면 되는 작업을 AI라는 AI를 통하여 일정한 간격을 두고 누르도록 명령을 반복적으로 하는 것이었다. AI는 등장초기부터 인간의 자리를 대신하는 모습에 부정적으로 생각하는 사람들이 나타나고 산업혁명때는 기계의 등장이 러다이트 운동과 같은 사회운동의 형태로 드러나게 된다. 기술이 발전함에 따라 복잡한 명령을 수행하는 것이 가능해지자 AI에 관련하여 다양한 문제점이 등장하게 되었다.
2022년 8월 미국 콜로라도주에서 ‘콜로라도 주립 박람회 미술대회’가 개최되었다. 이 때 디지털 아트 부문에서 창작성과 예술성을 인정받아 1등을 수상한 제이슨 앨런이 출품한 미드저니를 통한 제이슨 앨런의 「스페이스 오페라 극장(Théâtre D’opéra Spatial)」라는 작품이었다. 주에서 열리는 자그마한 미술대회였으나 이 대회의 결과는 세간에 크나큰 논란을 불러오게 되었다. 1등을 수상한 작품이 직접 앨런이 그린 그림이 아닌 몇 개의 단어를 통하여 만들어진 AI의 작품이었기 때문에 미술계에서는 직접 사람이 그린 작품이 아니라는 점에서 “예술성의 죽음을 목도한다”. 하며 AI의 작품은 예술품으로 인정할 수 없다 주장하며 이에 대한 수상자격 박탈을 요구하였으나 대회 측은 출품자의 이름으로 미드저니를 통한 제이슨 앨런이었다는 점과 이미지를 구성하는데 있어 설명글을 입력하고 최종 이미지를 골라 재편집하는 과정에서 인간의 본인의 판단이 들어갔다는 점과 더불어 AI의 작품임을 인지하고 다시 심사를 한다 할지라도 우승작임에는 변함이 없다는 입장을 표명하며 결과적으로 대회의 결과에는 변함이 없었다.
위의 논쟁은 AI의 작품일지라도 이를 사람의 예술로써 인정할 수 있는지와 더불어 그 작품에 있어 주체는 누구인가와 같은 저작자에 대한 의문을 제기하는 이슈라 볼 수 있다. 이러한 이슈는 또한 앞으로도 계속하여 제기될 가능성이 농후한 문제점으로써 이를 해결할 방안을 강구할 필요가 있으며 이는 앞으로의 AI와 그 저작물을 도덕적으로 사용하고 보호하는 동시에 인간이라는 개념을 보다 명확하게 만들어주는 작업이 필요하다는 것을 시사한다.
사람은 감정이 있기 때문에 어떠한 사건을 놓고 이를 지극히 객관적인 자세로서 판단할 수 없다고 한다. 그래서 하나의 사건을 놓고도 어떠한 사람이 어떻게 판단하냐에 따라서 그 결과는 천차만별로 다르게 나타난다. 미국 위스콘신 주를 포함한 여러 주에서 AI 알고리즘이 산출한 범죄자의 재범률 평가 결과를 고려하여 범죄자의 형량을 정하고 있다. 2016년에 위스콘신주 법원이 범죄자의 재범 가능성을 예측하는 알고리즘 컴파스(COMPAS)에서 산출된 자료에 기초하여 형을 선고한 것에 대하여 위스콘신 주 대법원은 영업비밀을 이유로 재범률을 산출하는 알고리즘이 법원이나 피고인에게 공개되지 않더라도 피고인의 적법절차에 의해 재판받을 권리를 침해하지 않는다고 판결하였다, 하지만 컴파스가 출소 후 2년 동안 다시 범죄를 저지르지 않은 흑인 범죄자가 재범가능성 있는 자로 잘못 분류할 확률이 백인 범죄자보다 2배 가까이 높다고 밝혀져 비판을 받고 있다, AI는 객관적이고 공정할 것이라는 전제로 AI가 산출한 결과에 대하여 강한 신뢰를 보이는 경향이 있으나, 위 컴파스의 사례는 AI 알고리즘이나 빅데이터에 차별이나 편견이 개입될 여지가 충분히 있음을 보여준다.
이와 같은 일이 발생한 이유를 AI의 학습 방법에서 찾을 수 있다. AI는 빅데이터와 알고리즘을 통하여 학습한다. 아무리 AI가 데이터만을 가지고 판단한다 한들 AI가 학습한 데이터는 결국 인간으로부터 만들어진 데이터들로써 그러한 데이터로 학습을 할 경우, AI는 편향적 결과를 나타낼 수 있다는 것이다. 이와 비슷한 사례로써 2021년에 등장하였다가 사라진 AI 챗봇 ‘이루다’가 있다. ‘이루다’는 AI이지만 진짜 사람과 대화하는 듯한 문체를 보이며 단숨에 큰 인기를 끌게 되었다. 하지만 챗봇 이루나가 보여주는 대화 속에는 인종차별적 발언과 장애인과 동성애를 비하하는 발언 등이 발견되며 AI에 대한 윤리적 문제로 결국 서비스를 종료하게 되었다. 이러한 결과가 나타난 이유는 데이터를 학습하고 이에 대한 윤리적 인지가 없었기 때문에 발생하였다고 본다. AI는 자율적으로 윤리적, 도덕적 선택을 하지 못하기 때문에 학습된 데이터 가운데 가장 적절한 응답을 추출한 후 대화문체로 가공하여 출력하는 것에 불과하다. 이는 마치 아기가 말을 배운다 한들 그것이 인종차별적 발언인지 모르는 것과 같다.
이외에도 데이터를 수집하는데 있어 개인정보가 무단으로 수집, 저장되어 개인정보보호가 제대로 이루어지지 못하는 점과 AI가 어떠한 규칙으로 결과를 내는지 사용자의 입장에서는 알 수 없다는 점에서 기술적, 윤리적 문제가 제시되었다. 위와 같은 문제들을 통하여 발견할 수 있는 문제점은 총 네 가지가 있다. 첫째는 AI를 이용하여 나타난 결과에 대한 책임과 권리가 누구에게 있는지 그 기준이 명확하지 못함에 나타나는 가치적 혼동, 두 번째는 AI가 어떠한 데이터를 학습하였는지에 따라 결과가 달라지는 편향성 문제, 세 번째는 AI는 자율적 판단을 하지 못함에 나타나는 윤리적 문제, 네 번째는 AI를 학습시키기 위하여 데이터를 수집하고 저장하며 나타나는 개인정보관리 문제가 있다. 이러한 문제들은 인간과 AI 간의 영역이 제대로 규정되어 있지 않다는 점과 AI의 활동 전반에 인간이 계속하여 개입되어야 함에 따라 나타나는 문제이다.
그렇기에 이를 해결하기 위해서는 인간과 AI에 대한 확실한 구분과 더불어 AI에게 윤리적, 도덕적 판단을 할 수 있도록 계속하여 학습시키지 않는 이상 이러한 문제는 계속될 것이다.