문맥과 지식

 

21 세기 호모 사피엔스 : Raymond Kurzweil 지음, 채윤기 옮김, 나노미디어, 1999 (원서 : The Age of Spiritual Machines, Viking Penguin, 1999), Page 124~134

1. 세 가지를 하나로 합쳐서

2. 문맥과 지식

  - 붙박이 지식

  - 획득된 지식

3. 언어로 지식을 표현한다

 

1. 세 가지를 하나로 합쳐서

정리해 보면, 많은 난제들이 세 가지 단순한 공식을 적용함으로써 극복되었다. 재귀적 공식은 아주 많은 경우의 수를 가진 분석적 문제 (체스 개임으로부터 수학의 정리를 증명하는 일까지) 을 푸는 데 뛰어났다. 신경망은 인간의 패턴 인식 능력을 흉내 내어 음성, 문자, 영상,얼굴, 지문, 지형과 같은 다양한 현상을 인식한다. 진화적 알고리즘은 변수가 너무 많아서 정밀한 분석이 어려운 복잡한 문제 (투자 결정으로부터 산업 공정의 적합화에 이르기까지) 를 해결하는 데 효과적이다. 필자는 "지능적" 컴퓨터 시스템을 연구 개발하는 사람들이 프로그램이 풀어야 할 문제의 복잡성을 숙지해 왔다고 말하고 싶다. 그렇지만 이러한 패러다임을 사용하는 컴퓨터들이 우리들에게 해답을 가르쳐 주는 경우도 종종 있다.

물론 약간의 엔지니어링이 필요하다. 정확한 방법론을 선택해야 하고, 최적의 아키텍처를 만들어야 하며, 적합한 매개 변수를 설정해야 한다. 예를 들어 진화적 알고리즘에서는 시스템 설계자는 모의 생물의 숫자와, 각 염색체의 내용과, 모의 환경과 생존 메카니즘의 성질 그리고 다음 세대에서 살아 남을 생물의 숫자, 세대 수, 기타 중요한 특성을 결정해야 한다. 프로그래머는 그런 결정을 하는 데에 소위 시행 착오라고 하는 인간 나름의 진화적 방법을 사용한다. 그러므로 지능적 기계의 설계자가 인간에서 기계로 대체되는 데는 꽤 많은 시간이 걸릴 것이다.

그런데 뭔가 빠뜨렸다, 우리가 논의해 온 문제와 해답들은 너무 좁은 범위였다. 다른 식으로 말하면 너무 어른스럽다는 것이다. 어른들은 압축된 문제들 - 투자, 마케팅, 재판 전략, 체스 게임 등 - 에 초점을 맞춘다. 그러나 어린이는 세상을 다양하게 바라보며, 세상과의 관계를 배우고, 다른 존재 및 개념과의 관계를 배운다. 어린이는 '문맥' (context) 을 배운다.

마빈 민스키는 다음과 같이 말했다. "딥블루는 체스에서는 이길지 몰라도, 비가 올 때 안으로 들어올 줄은 모른다". 기계라면 비를 피할 필요가 없을지도 모른다. 그러니 그런 문제를 생각해 본 적이나 있을까? 딥블루가 다음과 같이 깊은 생각을 한다고 상상해 보자

물론 딥 블루는 이런 생각을 하지 못한다. 비와 기자 회견 같은 주제가 다른 주제로 문맥의 소용돌이 속에서 넘어가는데 이것은 딥 블루가 할 수 있는 일이 아니다. 하나의 개념에서 다른 개념으로 건너뛸 때에 우리는 재빨리 알고 있는 모든 지식을  떠올릴 수 있다. 이것이 튜링이 일상적인 텍스트 기반 대화로 튜링 테스트를 설계한 통찰력이다. 딥 블루와 같이 한 가지 "지능적" 작업을 수행할 수는 있으나 다른 분야에는 깡통이고 문맥을 이해하지 못하는 존재는 주제를 넘나드는 일상의 대화를 따라갈 수 없다.

쉬운 패러다임이 강력하고 매력적이기는 하지만 우리는 더 이상의 것, 이름하여 '지식' 이란 것이 필요하다.

2. 문맥과 지식

진리를 탐구하는 것은 한편으론 어렵고 다른 한편으로 쉽다. 아무도 진리를 전부 알 수 없으며, 전혀 모르는 사람도 없는 것이다. 우리들 각자는 인류의 자연에 관한 지식에 조금 보태는 것이며 모여진 전체로부터 뭔가 위대한 것이 생겨나는 것이다. - 아리스토 텔레스

상식이란 단순한 것이 아니다. 그것은 어렵게 얻어진 실용적인 관념들의 집합이다. 대량의 규칙과 예외, 경향과 풍조, 균형과 억제 등. - 마빈 민스키

지식이 적어서 위험하다면, 위험하지 않은 사람이 어디 있겠는가? - 토마스 헨리 헉슬리

- 붙박이 지식

위에서 언급했던 세 가지 패러다임을 다 갖춘 존재가 있다 하더라도 지식이 없으면 작동할 수 없을 것이다. 세 가지 쉬운 패러다임을 그대로 실행하는 데도 뭔가 지식이 필요하다. 재귀적 체스 프로그램은 약간의 지식을 갖고 있다. 즉, 체스의 규칙을 아는 것이다. 신경망 패턴 인식 시스템은 학습을 시작하기 전에 패턴의 윤곽 정도라도 알고서 시작한다. 진화적 알고리즘은 진화의 출발점을 필요로 한다.

단순한 패러다임들은 강력한 도구이지만 다른 지식이 자라날 수 있는 씨앗과 같은 초기 지식을 필요로 한다. 그러므로 사용될 패러다임, 구성 요소들의 모양과 위상, 핵심적 매개 변수들을 선택하는 데에 일정 수준의 지식이 들어가는 것이다. 신경망은 학습 방법과 피드백 루프가 올바르게 설정되지 않는 한 학습 성과를 얻을 수 없다.

이것이 우리 인간이 가지고 있는 지식의 형태다. 인간의 뇌는 경험과 통찰력이 기록되는 백지가 아니다. 오히려 그것은 다음과 같이 특화된 여러 부분들이 통합된 덩어리라고 할 수 있다.

다른 형태의 정보 처리 작업에 특화된 부분이 복잡하게 연결됨으로써 우리가 마주치는 복잡하고 다양한 문맥을 파악할 수 있게 된다. 마빈 민스키와 세이머 페이퍼트는 사람의 뇌를 "비교적 소규모로 분산된 수많은 시스템의 복합체" 라고 하였다. 그들은 덧붙여서 "복합체의 일부로서 대부분의 작업을 하는 하위 시스템들은 성격상 뇌의 다른 부분들이 자기들의 작동방식을 많이 알지 못하도록 해야 한다. 이 사실이 사람들이 많은 일을 하면서도 실제로 그 일들이 어떤 방식으로 이루어지는지 완전히 이해하지 못하는 이유를 설명하는 데 도움이 된다."

- 획득된 지식

내일의 도전을 위하여 오늘의 통찰력을 기억하는 것은 현명한 일이다. 생기는 문제마다 새로 생각한다는 것은 효율적이지 않다. 이것은 인간의 연산 회로가 극단적으로 느리기 때문에 인간에게는 특히 진실이다. 컴퓨터는 인간에 비해서는 과거의 통찰력을 다시 생각하는 것이 좀 나은 형편이지만 인간의 생태적 지위를 위협하는 이 전자적 경쟁자들 역시 기억과 연산의 균형을 맞추는 것이 현명하다.

1960 년대 중반에 세상의 지식을 기계에 부여하려는 노력이 본격적으로 시작되었으며, 1970 년대에는 인공지능 연구의 주요 초점이 되었다. 그 방법론에는 인간 "지식 공학자" 와 의사나 법률가와 같은 각 분야의 전문가가 포함된다. 지식 공학자는 전문가와 인터뷰를 하여 주제에 관한 이해를 확인하고 나서 적당한 컴퓨터 언어로 개념들 간의 관계를 코드화한다. 예컨대 당뇨병에 관한 지식 베이스에는 다음과 같은 내용을 나타내는 사소한 지식들이 많이 연결되어 들어 있다. "인슐린은 혈액의 일부분이다. 인슐린은 췌장에서 만들어진다, 인슐린은 주사약으로 보충할 수 있다, 인슐린이 부족하면 혈당량이 높아진다, 혈당량이 계속 높으면 망막이 손상될 수 있다' 등등, 이러한 관계들을 추리할 수 있는 재귀적 검색엔진과 결합된 수만 개의 개념이 프로그램된 시스템은 통찰력 있는 권고를 할 수 있다.

1970 년대에 개발된 더욱 성공적인 엑스퍼트 시스템은, 뇌막염을 포함하여 복잡한 증상을 진단하는 시스템인 마이신 (MYCIN) 이었다. 미국 의학 협회보에 수록된 획기적인 연구에서 마이신의 진단 및 치료 처방은 인간 의사와 동등하거나 더 나은 걸로 밝혀졌다 (주석 : Victor L. Yu, Lawrence M. Fagan, S. M. Wrath, William Clancey, A. Carlisle Scott, John Hannigan, Robert Blum, Bruce Buchanan, and Stanley Cohen, "Antimicrobial Selection by Computer : A Blinded Evaluation by Infectious Disease Experts." Journal of the American Medical Association 242, no. 12 (1979) : 1279 - 1282.). 마이신의 혁신 중에는 퍼지 이론을 사용한 것도 포함된다. 즉, 불확실한 증거와 규칙에 근거하여 추리하는 것인데 다음 마이신의 전형적인 규칙을 참고하라.

마이신과 다른 연구 시스템의 성공은 지식 엔지니어링 산업을 낳았고, 1980 년 4 백만 달러였던 지식 엔지니어링 산업의 규모는 오늘날 수십억 달러를 성장하였다. (주석 : Edward Feigenbaum, Pamela McCorduck, and Penny Nii, The Rise of the Expert Company (Reading, MA : Addison-Wesley, 1983).)

이 방법론에는 분명함 난점들이 있다. 하나는 많은 지식을 개념별로, 링크별로 컴퓨터에 넣어주기가 어렵다는 것이다. 좁은 분야에도 아주 방대한 지식이 존재한다는 사실 말고 더 큰 장애물은 전문가들이 자기들이 결정을 하는 방법에 관해서 거의 알지 못한다는 사실이다. 앞 장에서도 얘기했지만 이 이유는 대부분 인간 지식이 분산되어 있다는 성질과 관계가 있다.

또 하나의 문제는 그러한 시스템이 취약하다는 것이다. 지식은 너무 복잡하므로 지식 엔지니어가 모든 단서와 예외를 예측할 수가 없다. 민스키가 지적한 것처럼, "새는 날 수 있다. 펭귄이나 타조가 아니라면, 혹은 갑자기 죽지 않는다면, 혹은 날개가 꺾이지 않았다면, 혹은 새장에 갇히기 않았다면, 혹은 시멘트에 발이 붙어 버리지 않았다면, 혹은 정신병적으로 자기가 날 수 없다고 생각할 만한 무서운 경험을 가진 새가 아니라면."

우리의 기계 안에 유연한 지능을 창조하려면, 우리는 지식 획득 과정을 자동화할 필요가 있다. 학습 연구의 최고 목적은, 시스템이 인간의 언어와 지식을 모방하고 이해할 수 있는 충분히 확고한 방법으로 세 가지 패러다임 - 재귀적 방법, 신경망, 진화적 알고리즘 -을 결합하는 것이다. 그 다음에 기계는 밖으로 나가서 스스로 읽고 배운다. 그리고 인간처럼 그 시스템들은 자기 전문 영역 밖을 헤맬 때에도 임기응변을 잘 할 것이다.

3. 언어로 지식을 표현한다

말로 완전히 환원되는 지식은 없다, 그리고 말로 표현할 수 없는 지식도 없다. - 세이머 페이퍼트

그물은 물고기 때문에 존재한다. 물고기를 잡고나면 그물은 잊어도 된다. 토끼 덫은 토끼 때문에 존재한다. 토끼를 잡고나면 덫은 잊어도 된다. 언어의 의미 때문에 존재한다. 의미를 얻으면 언어는 잊어도 된다. 언어를 잊은 사람을 만나 얘기를 해볼 수 있으려나? - 장자

언어는 우리가 지식을 공유하는 중요한 수단이다. 그리고 다른 인간의 기술과 마찬가지로 언어는 종종 인간만 가지고 있는 특징이라고 얘기된다. 뇌 속에서 어떻게 지식이 다루어지는지 다 알지는 못하지만 (이 상황은 21 세기 초반에 바뀔 것이다.). 우리는 언어의 구조와 방법은 즉각적으로 접근할 수 있다. 언어는 우리가 지식과 그 배후의 사고 과정을 마스터할 수 있는 연구를 위한 훌륭한 실험실인 셈이다. 언어라는 실험실에서 작업해보면 (놀랄 것도 없이) 언어는 자기가 전달하려고 하는 지식만큼이나 복잡 미묘한 현상이라는 것을 알 게 된다.

언어는 소리 형태든 문자 형태든 간에 계층적 구조를 가지고 있다. 각 계층마다 모호함이 존재하므로 (인간이든 기계든) 언어를 이해하는 시스템은 각 계층에서 붙박이 지식을 필요로 한다. 예를 들어 사람의 말에 지능적으로 응답하려면 (의식적이어야 할 필요는 없지만) 음성의 구조, 발성기관에서 소리가 만들어지는 방식, 언어와 대화를 구성하는 소리의 패턴, 어법 규칙, 대화의 주제 등을 알고 있어야 한다.

각 계층에는 정답을 한정하는 유용한 제약이 있다. 예를 들면 음소라고 불리는 단위는 아무 순서로나 나타날 수는 없다 (ptkee 를 발음해 보라). 소리의 적절한 배열만이 단어가 될 수 있다. 각각의 언어들은 사용하는 음소 세트는 비슷하지만, 음소의 결합 방식은 극적으로 달라진다. 예를 들어 영어에는 1 만 개 이상의 음절이 있지만 일본어에는 겨우 120 개가 있을 뿐이다.

더 높은 계층에서는, 언어의 구조와 의미론이 단어의 배열을 규제한다. 활발히 연구되어야 할 언어학의 첫 번째 분야는 단어의 배열을 지배하는 규칙과 단어들의 역할, 즉 구문론이다. 한편 컴퓨터의 문장 분석 시스템은 사람들을 혼란스럽게 하는 문장을 잘 분석할 수도 있다. 민스키가 제시한 예를 보라. "This is the cheeze that the car that the dog chased bit ate." 사람들은 이 문장을 보고 헷갈리지만 기계는 아주 빠르게 분석해낸다. 당시 MIT 에 근무하던 켄 처치는 구문론적으로 200 만 가지의 올바른 해석이 가능한 문장을 인용하였는데, 컴퓨터가 충실하게 200 만 가지 해석을 보여 주었다 (주석 : Willam Martin, Kenneth Church, and Ramesh Patil, "Preliminary Analysis of a Breadth-First Parsing Algorithm : Theoretical and Experiential Results." MIT Laboratory for Computer Science, Cambridge MA, 1981. 이 문서에서 처치는 다음과 같은 문장을 만들어 인용하였다. "It was the number of products of products of products of products of products of products of products of products ?" 라는 문장은 구문론적으로 유효한 1,430 가지 해석이 가능하다. 이어서 "What number of products of products of products of products of products of products of products of products  was the number of products of products of products of products of products of products of products of products ?" 는 1,430 곱하기 1,430 즉 2,044,900 가지 해석이 가능한다. 고 하였다.). 다른 한편 1963 년 하바드의 스스무 구노가 개발한 최초의 컴퓨터 기반 문장 분석 시스템 중의 하나는 "Time flies like an arrow." 라는 단순한 문장을 분석하느라 고생했다. 다음과 같은 유명해진 응답을 내놓으면서 컴퓨터는 그 의미가 무엇인지 확실하지 않다고 지적하였다.

이 모호함을 해결하기 위해서는 분명히 모종의 지식이 필요하다. 파리는 화살과 닮지 않았다는 지식을 가지고 우리는 세 번째 해석을 때려치울 수 있다. 시간 파리라는 종류의 파리가 존재하지 않는다는 것을 알기에 네 번째가 기각된다. 파리가 화살을 좋아하지는 않는다는 것 (네 번째 해석을 폐기하는 추가적 이유) 과 화살은 박자를 맞추지 못한다는 (두 번째 해석을 던져 버림) 등의 몇 가지 지식 덕에 우리는 첫 번째 해석만이 의미가 있다는 것을 안다.

언어에 있어서 인간과 기계 지능은 학습 순서가 서로 반대다. 사람은 언어를 듣고 이해하는 것부터 시작한다. 그 다음에 말하기를 배우고 마지막으로 문자를 배운다. 컴퓨터는 반대 방향으로 진화해 왔다. 문자를 쓰는 것부터 시작해서 다음에 문자 이해를 학습하고 그 다음에 말하기를 시작하였고 최근에야 연속적인 발음을 이해할 수 있게 되었다. 이 현상은 널리 오해되고 있다. 예를 들어 '스타 워즈' 의 R2D2 라는 로봇은 사람의 말을 이해하면서도 말은 못하는데, 이것은 사람의 말을 '이해하는' 것보다 '말하는' 것이 훨씬 어렵다는 잘못된 선입견을 준다.

•  •  •