AI in Modern Approach : Introduction

 

AI in Modern Approach : Stuart Russell  Peter Norvig, Prentice Hall, 2003, Page 1~30

 

1.1   AI 는 무엇인가?

1.2   AI 의 기초

1.3   AI 의 역사

1.4   그 예술의 상태 (최신 AI 의 응용)

1.5   요약

도서목록과 역사적 노트 

 

인간이 자신을 Homo sapiens - 현명한 사람 - 라고 부르는 이유는 정신적인 능력이 인간에게는 매우 중요하기 때문이다. 수천년동안 '인간은 어떻게 생각하는가' ; 즉 어떻게 한줌밖에 안되는 인간이 그 자신보다 훨씬 더 크고 복잡한 세계를 감지하고 이해하고 예상하고 조작하는지를 이해하기 위해 노력해왔다. 인공지능 분야, 즉 AI 는 단지 이해 하는데 그치지 않고 지능적인 실체를 만들려고 시도한다.

AI 는 가장 새로운 과학중의 하나이다. 2차 세계대전 직후에 본격적으로 시작되고 AI 라는 용어는 1956 년에 만들어졌다. 분자생물학과 함께, AI 는 다른 분야의 과학자들에 의해 "가장 좋아하는 분야" 로서 인용된다. 물리학을 전공하는 학생은 모든 훌륭한 아이디어들이 이미 Galileo, Newton, Einstein 등등에 의해 알려지게 되었다. 그와는 달리 AI 는 아직도 아인슈타인 지망생들에게는 열려있다.

최근의 AI 는 많은 다양한 하위분야를 포함하는데, 예를들면 학습 (Learning)지각 (Perception) 같은 일반적인 목적의 영역으로부터 체스 (Chess) 게임, 수학의 정리증명 (Theorem Proving), 시 (poetry) 쓰기, 질병의 진단과 같은 특수영역까지를 포함한다. AI 는 지능적인 작업들을 시스템화하고 자동화하며, 따라서 아마도 인간 지능활동의 일부영역에 상응할 것이다. 이러한 의미에서 AI 는 진실로 범용 (universal) 분야이다.

1.1   AI 는 무엇인가?

우리는 인공지능 (Artificial Intelligence) 에 열광하면서도 그것이 무엇인지 정의하지는 않았다. 8 개의 텍스트에 묘사된 AI 의 정의를 그림 1.1 에 보여준다. 이러한 정의는 크게 두가지 차원에서 다른다. 대강, 그림의 위쪽에 있는 것은 사고 (thought) 과정과 추론과 관련된 것이고, 아래에 있는 것은 행동 (behavior) 에 관한 것이다. 왼쪽에 있는 것은 인간의 (human) 의 능력에 충실하다는 의미에서의 성공을 다루고, 오른쪽은 우리가 합리성 (rationality) 라고 부르는 지능의 이상적인 (ideal) 개념을 다룬다. 어떤 시스템이 자신의 지식으로 만일 "정확한 일 (right thing)" 을 한다면 그 시스템은 합리적 (rational) 이다.

역사적으로 모두 4 가지의 AI 의 접근방식 (approaches) 이 있어왔다. 예상한 대로, 인간을 중심으로 한 접근방식과 합리성을 중심으로한 접근방식 사이에 긴장이 존재한다 (주석 : human and rational behavior 를 구분할 때, "감정적으로 불안정한" 또는 "제정신이 아닌 (insane)" 이라는 의미로 인간은 반드시 "비합리적 (irrational)" 이라고 전제하는 것이 아니란 것을 지적해야 한다. 단지 인간은 완전하지 않다는 개념을 필요로 한 것이다 : 체스의 규칙을 모두 알더라도 인간이 모두 체스의 고수인 것은 아니다 ; 그리고 불행히도, 모든 사람이 시험에서 A 학점을 받는 것은 아니다. 인간의 추론에서의 시스템적인 오류 (errors) 에 대해서는 Kahneman et al (1982) 에 분류되어 있다). 인간 중심의 접근방식은 가설과 실험적인 확인을 포함하는 경험적 과학이어야만 한다. 합리주의자의 접근방식은 수학과 공학의 조화를 포함한다. 각 그룹은 서로를 비난하면서도 서로에게 도움을 준다. 4 개의 접근방식을 더 자세히 보자.

인간처럼 생각하는 시스템

합리적으로 생각하는 시스템

"컴퓨터를 생각하게 만들기 위한 재미있는 새로운 노력 ....  말 그대로 '마음을 가진 기계' " (Haugeland 1985)

"의사결정, 문제해결과 같은 활동, 즉 인간의 사고 (thinking) 와 관련된 활동의 자동화 ..... " (Bellman 1978)

"계산적 모델 (computational models) 의 사용을 통한 정신적 능력 (mental faculties) 에 대한 연구" (Charniak and McDermott 1985)

"지각, 추론, 행동을 가능하게 하는 계산들 (computations) 에 대한 연구" (Winston 1992)

인간처럼 행동하는 시스템

합리적으로 행동하는 시스템

"인간이 하면 지능을 필요로 하는 그러한 기능 (function) 을 수행하는 기계를 창조하는 기술" (Kurzweil 1990)

"인간이 더 잘하는 것을 (things) 어떻게 하면 컴퓨터가 하게 만들지를 연구하는 것" (Rich and Knight 1991)

"계산 지능 (Computational Intelligence) 은 지능적 에이전트를 설계하는 것에 대한 연구이다." (Pool et al 1998)

"AI 는 ......인공물에서의 지능적 행동 (behavior) 과 관련된다." (Nilsson 1998)

그림 1.1   AI 의 몇 개의 정의, 4 개의 영역으로 나누어진다. (rational 과 computational 은 비슷한 개념?) 

인간처럼 행동하기 : Turing Test 접근방식

Alan Turing (1950) 이 제안한 튜링 테스트 (Turing Test) 는 지능의 만족스런 작동을 정의하기 위해 설계되었다. 지능을 위해 요구되는 자격에 대해 논쟁거리를 제안하는 것보다는, 그는 부정할 수 없는 지능적인 개체인 인간 (human being) 과 구분할 수 없음 (indistinguishability) 에 바탕한 하나의 테스트를 제안했다. 만일 인간 질문자가 문서화된 질문을 하였을 때 마찬가지로 문서화된 반응이 사람이 한것인지 아닌지를 말할 수 없다면 그 컴퓨터는 테스트를 통과한 것이다. Chapter 26 에서는 그 테스트에 대해 자세히 논하고, 컴퓨터가 그것을 통과한다면 진실로 지능적인 것인지를 논한다. 지금은, 그 테스트를 통과하는 컴퓨터를 프로그래밍하는 것이 많은 흥미로운 것을 제공한다는 것을 주목한다. 그 컴퓨터는 다음의 능력을 가질 필요가 있는 것이다 :

Turing Test 는 질문자와 컴퓨터 간의 직접적인 물리적 상호작용은 의도적으로 피했다, 왜냐하면 사람의 물리적인 (physical) 시뮬레이션은 지능에는 불필요하기 때문이다. 그러나 소위 total Turing Test 는 질문자가 "칸막이를 통한 (through the hatch)" 질문 뿐만 아니라 컴퓨터의 지각 (perceptual) 능력을 테스트 할 수 있도록 비디오 신호를 포함한다. total Turing Test 를 통과하기 위해서는 컴퓨터는 다음의 기능을 필요로 한다.

이러한 6 개의 과목이 AI 의 대부분을 구성하며, Turing 은 그후 50 년간이나 정당한 것으로 여전히 평가받는 테스트를 설계한 명성을 인정받아 마땅하다. 그러나 AI 연구자들은 Turing Test 에 통과하려는 노력을 거의 할 수가 없었는데, 그것은 원본을 복제하는 것보다는 지능에 잠재해 있는 원리에 대한 연구가 더 중요하다고 믿었기 때문이다. "인공적인 비행체" 에 대한 연구는 Wright 형제와 다른 연구자들이 새를 모방하는 것을 멈추고 항공역학 (aerodynamics) 을 배우면서 성공하였다. 항공공학 텍스트는 그 분야의 목표를 "그들이 비둘기처럼 어리석게 보일 수 있는, 비둘기처럼 정확히 똑같게 날 수 있는 기계" 를 만드는 것으로 정의하지 않는다.

인간처럼 생각하기 : 인지 모델 (cognitive modeling) 접근방식

어떤 프로그램이 인간처럼 생각하는 것을 언급할 때, 인간이 어떻게 생각하는 지를 파악해야만 한다. 즉 인간의 마음의 실제적인 작업을 이해할 (get inside) 필요가 있다. 그를 위해 두가지 방법이 있다 : 자기성찰 (introspection) - 스스로의 사고 (thought) 가 어디로 움직이는 지를 포착하기 위한 노력 - 을 통한 방법과 심리학적 실험을 통한 방법이다. 만일 프로그램의 입력/출력 과 시간에 따른 행동이 인간의 행동과 같은 것으로 매치가 된다면, 그것은 그 프로그램의 일부 메카니즘이 인간에서도 작동될 수 있다는 증거이다. 예를들면, GPS, "General Problem Solver" (Newell and Simon 1961) 을 개발한 Allen Newell 과 Herbert Simon 은 그들의 프로그램이 문제들을 정확하게 풀기위한 내용은 아니었다. 그들은 프로그램의 추론 단계의 궤적과 인간이 같은 문제를 풀어나가는 궤적을 비교하는 것에 더 관심을 가지고 있었다. 학제간 분야인 인지과학 (Cognitive Science) 은 AI 로부터 컴퓨터 모델, 심리학에서 실험 기술을 받아들여 인간 마음의 작동에 대한 정확하고 테스트 가능한 이론을 만들려고 시도한다.

인지과학은 그 자체가 백과사전과 같은 가치가 있는 매력적인 분야이다 (Wilson and Keil 1999). 이 책에서는 인간의 인지 (Cognition) 에 대해 무엇이 알려져 있는지를 묘사하려고 하지는 않을 것이다. 우리는 가끔 AI 기술과 인간의 인지사이의 유사성과 차이점에 대해 언급한다. 그러나 실질적인 인지과학은 반드시 실제의 인간이나 동물에 대한 실험적인 조사에 기초해야만 하고, 당연히 독자들은 실험을 위한 컴퓨터에만 접근하다.

AI 의 초기에는 접근방법 (approaches) 간에 혼란이 있기도 했다 : 어떤 알고리즘이 작업을 잘 수행하고 그럼으로써 (therefore) 그것은 인간의 수행을 잘 모델링 한 것이라고 주장하였고, 그 역으로 주장하기도 하였다. 요즘에는 그 두가지 종류의 주장을 분리한다 ; 이러한 구별은 AI 와 인지과학이 둘다 급격하게 발달하게 하였다. 두 분야는 서로를 더욱 기름지게 하였는데, 특히 시각 (vision) 과 자연어 (natural language) 영역이 그렇다. 특히 vision 은 신경생리학적 증거와 컴퓨터 모델을 통합한 접근방식을 통해서 최근에 많이 발전하였다.  

합리적으로 생각하기 : 사고의 법칙 (laws of thought) 접근방식

그리스 철학자 Aristotle 은 반박할 수 없는 추론과정으로서의 "정확한 생각 (right thinking)" 을 최초로 체계적으로 정리하였다. 그의 삼단논법 (syllogism) 은 정확한 전제가 주어졌을 때 항상 정확한 결론을 낳는 - 예를들면 "소크라테스는 사람이다 ; 모든 사람은 죽는다 ; 따라서 소크라테스는 죽는다" - 추론구조의 패턴을 제공했다. 이러한 사고의 법칙이 마음의 동작을 지배하는 것으로 가정했다 ; 그들의 연구는 논리학 (Logic) 이라는 분야를 만들었다.

19 세기의 논리학자들은 세상의 모든 종류의 사물들과 그것들 간의 관계에 대한 문장의 정확한 표기법 (notation) 을 개발했다. (이것을 수에 관한 문장의 동등성 (equality and inequality) 여부를 주로 제공하는 산술 표기법과 비교해 보라). 1965 년까지, 원칙적으로 논리적 표기법으로 묘사되는 해결가능한 어떤 (any) 문제들도 프로그램으로 풀 수 있다는 믿음이 존재했다 (주석 : 만일 해법이 없다면 그 프로그램은 그것을 찾을 때까지 결코 멈추지 않을 것이다).  소위 AI 에서의 logicist 전통은 지능시스템을 창조하기 위해 그런 프로그램을 토대로 하기를 희망한다.

이러한 접근방식의 2 개의 큰 장애가 있다. 첫째로 비형식적인 (informal) 지식을 취해서 논리적 표기법에 필요한 형식적 (formal) 용어로 서술하기가 쉽지 않은데, 특히 지식이 100 % 확실하지 않을 때 그렇다. 둘째로 "원칙적으로" 문제를 해결할 수 있다는 것과 실제로 해결하는 것 사이에 큰 차이가 존재한다. 단지 수십개의 사실 (facts) 을 가진 문제들 조차, 최초의 추론 단계에서 가이드를 받지 못하면 컴퓨터의 계산 자원 (computational resources) 를 모두 써 버릴 수 있다. 이러한 장애들에도 불구하고 컴퓨터 추론시스템을 만드는 어떤 기도가 성공한다면, 그것은 logicist 전통에서 최초가 될 것이다.

합리적으로 행동하기 : 합리적인 에이전트 (rational agent) 접근방식 

Agent 란 단지 행동하는 어떤 것이다 (agent 는 라틴어 agere (to do) 에서 나온 말이다). 그러나 컴퓨터 에이전트는 단순한 "프로그램" 이 아니라, 자율적 제어 하에서 작동하고, 주위 환경을 지각하며, 오랜 시간동안 살아남고 (persist over), 변화에 적응하며, 다른 에이전트의 목표를 흉내낼 수 (take on) 있는 속성을 가졌다는 면에서 독특한 것으로 생각된다. 합리적인 에이전트 (rational agent) 란 최상의 결과 (outcome), 불확실성이 있는 경우에는 최상의 기대 (expected) 결과를 얻을 수 있도록 행동하는 것이다.

AI 에 대한 "사고의 법칙" 접근방식은 정확한 추론 (correct inference) 을 강조했었다. 정확한 추론을 한다는 것은 때로는 rational agent 이기 위한 부분 (part) 이다. 왜냐하면 합리적으로 행동하는 하나의 방법은 (주어진 행동이 목표를 달성할 것이라는 결론에 따라) 논리적으로 추론하고  그리고나서 그 결론에 따라 행동하는 것이기 때문이다. 그와는 달리 정확한 추론이 합리성의 전부는 아닌데, 그 이유는 정확하다고 증명될 수는 없지만 계속 수행되어야만 하는 상황이 가끔 있기 때문이다. 또한 추론을 포함하지 않으면서도 합리적으로 행동하는 경우들이 있다. 예를들면, 뜨거운 난로에서 얼른 손을 떼는 것은 주의깊은 숙고를 한 후에 느리게 행동해서는 안되는 성공적인 반사 행동이다.

Turing Test 를 위해 필요한 모든 기술들은 합리적 행동들을 허용하는 것이다. 그래서 아주 다양한 상황에서 좋은 결정을 할 수 있어야 하기 때문에 지식을 표현하고 그 지식으로 추론하는 능력을 필요로 한다. 또한 자연어로 이해할 수 있는 문장들을 생성할 수 있는 능력을 필요로 하는데, 그것은 그 문장들이 복잡한 사회에서 그럭저럭 헤어날 수 있게 도와주는 말을 하기 때문이다. 우리는 단지 박학다식한 것을 요구하는 것이 아니라 학습 (Learning) 을 필요로 하는데, 세상이 어떻게 돌아가는지에 대해 더 잘 알게되면 세상을 다루는데 있어서 더 효율적인 전략을 생성할 수 있기 때문이다. 우리는 시각적 지각 (visual perception) 을 필요로 하는데, 본다는 것이 재미있기 때문이 아니라 어떤 행동을 취할 것인지를 더 잘 알 수 있기 때문이다 - 예를들면 맛있는 음식을 볼 수 있다는 것은 그 방향으로 움직이게 도와준다.

이러한 이유 때문에 rational-agent 설계로서의 AI 에 대한 연구는 적어도 2 가지 장점을 가지고 있다. 첫째로 그것은 "사고의 법칙" 접근방식 보다도 더 일반적인데, 그 이유는 정확한 추론은 합리성 (rationality) 을 얻기위해 가능한 몇 개의 메카니즘 중의 하나에 불과하기 때문이다. 둘째로 인간의 행동이나 인간의 사고에 기초한 접근방식보다 더 과학적 개발의 원리에 따르는 것인데, 그 이유는 합리성에 대한 표준은 명확하게 정의되고 완전히 일반적이기 때문이다. 그와는 달리, 인간의 행동은 특수한 환경에 잘 적응하고, 부분적으로는 복잡하고 잘 알려지지 않은 진화 과정 (완전한 것을 만들어 내는 것과는 거리가 먼) 의 산물이다. "따라서 이 책에서는 rational agent 의 일반 원리와 그를 구성하는 요소들에 집중할 것이다." 그 문제들이 명백히 간단하게 묘사될 수 있음에도, 그것을 해결하려 할 때는 많은 다양한 주제들이 다가오게 된다. Chaper 2 에서는 이러한 주제들 중에서 몇 개를 더 자세히 다룬다.

명심해야 할 하나의 중요한 포인트 : 완전한 합리성 - 항상 정확한일 (right thing) 을 하는 - 을 성취하는 것은 복잡한 환경에서는 가능하지 않다는 것을 오래지 않아 알게 될 것이다. 계산적 요구 (computational demand) 가 너무 높다. 그러나 이 책의 대부분에서는 완전한 합리성이 분석을 위한 좋은 출발점이라는 살아있는 가설을 받아들인다. 그 가설은 문제를 단순하게 하고 그 분야에서의 대부분의 기본적인 소재 (material) 를 적절하게 세팅할 수 있게 한다. Chapter 6 과 17 에서는 제한된 합리성 (limited rationality) - 원하는 모든 계산 (computation) 을 하기에는 시간이 충분하지 않을 때 적당히 (appropriately) 행동하는  - 이라는 주제를 명시적으로 다룬다.  

1.2   AI 의 기초

여기서는 AI 에 관한 아이디어, 관점, 기술에 공헌한 과목의 간략한 역사를 보여준다. 대부분의 다른 역사에서처럼 여기서도 불가피하게 소수의 인물, 사건, 아이디어에 집중하게 되며 중요한 다른 것들이 무시된다. 일련의 질문과 관련된 역사를 보여줄 것이다. 이러한 질문들이 그 과목들이 전달하는, 또는 궁극적인 결실로서 AI 에 기여한 유일한 것이라는 인상을 주지 않기를 바란다.

철학 (Philosophy) (B.C. 428 ~ 현재까지)

Aristotle (기원전 384~322) 은 최초로 마음 (Mind) 의 이성적인 측면을 지배하는 정확한 일련의 법칙을 형식화했다. 그는 적절한 추론을 위해 삼단논법 (Syllogism) 이라는 약식 시스템을 개발했는데, 그것은 원칙적으로 처음의 전제가 주어졌을 때 기계적으로 결론을 생성하는 것이었다. 훨씬 나중에 Ramon Lull (1315) 은 유용한 추론 (Reasoning) 이 기계로 만든 인공물에 의해 실제로 수행될수 있다는 아이디어를 가졌다. 그의 "개념 형성기 (concept wheels)" 그림이 이 책의 cover 에 있다. Thomas Hobbes (1588~1679) 는 추론이란 "조용한 생각속에서 더하고 빼는" 수치 계산과 같은 것이라고 제안하였다. 계산 그 자체의 자동화는 이미 시도되고 있었다 ; 1500 년쯤에 Leonardo da Vinci (1452~1519) 는 기계적 계산기를 설계는 했지만 만들지는 않았다 ; 최근에 그 설계대로 재제작 한 것을 보면 기능적 (functional) 이었다는 것을 알 수 있다. 최초라고 알려진 계산 기계는 1623 년쯤에 독일인 과학자 Wilhelm Schickard (1592~1635) 가 만들었다. 1642 년에 Blaise Pascal (1623~1662) 이 만든 Pascaline 도 유명하다. Pascal 은 "산술기계가 동물의 어떤한 행동보다 더 인간의 사고에 가까운 결과를 낳는다" 라고 썼다. Gottfried Leibnitz (1646~1716) 은 수치계산보다도 개념 (Concepts) 에 따라 작동하게 하려는 기계장치를 만들었지만 그 범위는 아주 제한적이었다.

지금은 우리들은 일련의 규칙을 사용해서 마음의 형식적이고 이성적인 부분을 묘사하려고 하고 있으며, 다음 단계로는 마음 (Mind) 을 하나의 물리적 시스템으로 생각하는 것이다. René Descartes (1596~1650) 는 마음과 물질사이의 차이와 그로인해 발생하는 문제들에 관해 최초로 명확한 토론을 했다. 마음 (Mind) 을 순수하게 물리적인 개념으로 보았을 때의 하나의 문제는 거의 자유의지 (free will) 가 들어갈 여지가 없어보인다는 것이다 : 만일 마음이 전적으로 물리적인 법칙에 따라 지배된다면, 지구의 중심을 향해 떨어지기로 "결정하는" 바위보다 더 많은 자유의지를 가졌다고 보기 어렵다. 추론의 능력을 강하게 옹호하면서도, 또한 Descartes 는 이원론 (Dualism) 의 지지자였다. 그는 인간의 마음의 한 측면 (영혼 또는 정신) 이 있는데, 그것은 물리적 법칙이 면제되어 자연을 초월하여 존재한다고 보았다. 반면에 동물은 이러한 이원론적 성질을 가지고 있지 않아서 기계처럼 처리될 수 있다고 하였다. 이원론의 변형으로서 유물론 (Materialism) 에서는, 물리적 법칙에 따른 뇌 (Brain) 의 작동이 마음을 만들어낸다 (constitute) 고 보았다. 자유의지는 단순히 이용할 수 있는 선택에 대한 지각 (Perception) 이 선택과정에서 나타나는 방법이다.

지식 (Knowledge) 을 다루는 물리적인 마음이 연구되었고, 다음의 문제는 지식의 원천을 밝히는 것이다. Francis Bacon (1561~1626) 의 Novum Organum (주석 : Aristotle 의 Organon, 즉 생각의 도구 를 업데이트 한 것) 에서 출발한 경험론 (Empiricism) 운동은 John Locke (1632~1704) 의 금언으로 특징지울 수 있다 : " 먼저 감각 (sense) 되지 않는 것은 어떤 것도 이해 (Understanding) 되지 않는다". David Hume (1711~1776) 의 A Treatise of Human Nature (Hume 1739) 에서 지금은 귀납법 (Induction) 의 원리로 알려진 것을 제안했다 : 즉 일반적인 규칙은 그들의 구성요소들간의 반복되는 관계를 노출함으로써 얻어질 수 있다는 것이다. Ludwig Wittgenstein (1889~1951) 과 Bertrand Russell (1872~1970) 이 구축하고, Rudolf Carnap (1891~1970) 이 주도한 유명한 Vienne Circle 은 논리실증주의 (Logical Positivism) 를 개발했다. 모든 지식은 궁극적으로 감각입력 (sensory input) 에 상응하는 관찰문 (observation sentence) 에 따라 연결되는 논리적 이론에 의해 성격을 규정지을 수 있다는 것이다 (주석 : 이러한 측면에서, 모든 의미있는 문장은 단어들의 의미를 분석하든가 또는 실험을 수행함으로써 증명되거나 거짓으로 드러날 수 있다. 이것은 의도적으로 대부분의 형이상학을 배제하기 때문에, 논리적 실증주의는 어떤 circle 에서는 인기가 없었다). Carnap 와 Carl Hempel (1905~1997) 의 확증이론 (confirmation theory) 는 지식이 어떻게해서 경험을 통해 얻어질 수 있는지를 이해하려고 시도했다. Carnap 의 책 The Logical Structure of the World (1928) 은 부분적인 경험으로부터 지식을 추출하는 명시적인 계산 과정을 정의했다. 그것은 아마 최초로 계산과정으로서의 마음의 이론 일 것이다.

마음에 대한 철학적인 측면의 마지막 요소는 지식과 행동사이의 연결이다. 이 질문은 인공지능 (Artificial Intelligence) 에는 중요한데, 그 이유는 지능 (Intelligence) 이 추론 (Reasoning) 뿐만 아니라 행동을 필요로 하기 때문이다. 더욱이, 우리는 행동이 얼마나 정당한지 (justified) 를 이해함으로써 그 행동이 정당한 (또는 합리적인) 에이전트를 어떻게 만들 것인지를 이해할 수 있다. Aristotle 은 목표 (goals) 와 행동의 결과에 대한 지식 (knowledge) 사이의 논리적 연결에 의해서 행동이 정당화 된다고 주장했다 (이러한 결론의 마지막 부분이 이 책의 cover 에 있다)

Nicomachean Ethics (Book Ⅲ. 3, 1112b) 에서 Aristotle 은 이러한 주제를 발전시켜 하나의 알고리즘을 제안하였다 :

Aristotle 의 알고리즘은 2300 년 후에 Allen Newell 과 Herbert SimonGPS 프로그램에서 구현되었다. 우리는 지금은 그것을 회귀에 의한 계획시스템 (regression planning system) 이라고 부른다. (Chapter 11 참조)

Goal-based analysis 는 유용하지만, 몇 개의 행동이 목표를 달성할 때, 또는 어떤 행동도 완전히 그것을 달성하지 못할 때 무엇을 할지를 알려주지는 않는다. Antoine Arnauld (1612~1694) 는 이러한 경우에 무슨 행동을 취해야 할지를 결정하는 quantitative formula 를 정확히 묘사했다 (Chapter 16 참조). John Stuart Mill (1806~1873) 의 책 공리주의 (Utilitarianism) (Mill 1863) 은 인간 행동의 모든 영역에서 이성적인 결정 (rational decision) 의 기준에 대한 생각을 활성화 시켰다. 결정의 더욱 형식적인 이론은 다음 섹션에서 논의된다.

수학 (Mathematics) (A.C. 800 ~ 현재까지)

철학자들이 인공지능 (Artificial Intelligence) 의 대부분의 중요한 아이디어를 명확히 하였지만, 형식과학 (formal science) 으로의 도약은 3 개의 기본 영역, 즉 논리 (Logic), 계산 (Computation), 확률 (Probability) 에서의 수학적 형식화를 필요로 했다.

형식논리의 개념은 고대 그리스의 철학자로 거슬러 올라갈 수 있지만 (Chapter 7 참조), 그 수학적 개발은 사실상 George Boole (1815~1846) 이 자세히 묘사한 명제논리 (Propositional Logic) (또는 Boolean logic, Boole 1847) 과 함께 시작하였다. 1879 년에 Gottlob Frege (1848~1925) 는 Boole's logic 을 확장하여 객체 (objects) 와 관계 (relations) 을 포함한 일차논리 (First-order Logic) 을 창조하여 오늘날에는 가장 기본적인 지시표현 시스템이 되었다. Alfred Tarski (1902~1983) 는 theory of reference 를 소개하여 논리속의 객체가 실세계의 객체와 어떻게 관계하는지를 보여주었다. 다음 단계는 logic 과 computation 으로서 할 수 있는 것의 한계를 결정하는 것이었다.

최초의 증명된 (nontrivial) 알고리즘은 최대공약수를 계산하는 Euclid 알고리즘 으로 알려져있다. 알고리즘 (Algorithm) 이란 말은 9 세기 페르시아 수학자 al-Khowarazmi 가 유럽에 아라비아 숫자와 대수 (algebra) 를 소개하면서 나온 말이다. Boole 과 여러사람들이 논리적 연역법 (Deduction) 을 위한 알고리즘을 연구했고, 19 세기말 까지 일반적 수학추론 (mathematical reasoning) 을 논리적 연역법으로 형식화하는 작업을 수행했다.

1900 년에 David Hilbert (1862~1943) 는 그가 정확하게 예상한 23 개의 문제 리스트를 소개하여 20 세기에 수학자들이 공유하게 했다. 마지막 문제는, 자연수를 포함하는 어떤 논리적 명제의 진위여부를 결정하는 알고리즘이 있는지 여부를 질문하는 유명한 판정문제 (Entscheidungsproblem 또는 decision problem) 이다. 기본적으로 Hilbert 는 효율적인 (effective) 증명절차의 능력에 근본적인 한계가 있는지를 질문하는 것이었다. 1930 년에 Kurt Gödel (1906~1978) 은 Frege 와 Russell 의 일차논리 (First-order Logic) 으로 어떤 진리 문장 (true statement) 을 증명하는 효율적인 절차가 존재하지만, 그러나 first-order logic 은 자연수를 특징짓는데 필요한 수학적 귀납법 (Mathematical Induction) 의 원칙을 포착할 수는 없었다는 것을 보여주었다. 1931 년에 그는 실제적인 한계가 존재한다는 것을 보여주었다. 그의 불완전성 정리 (Incompleteness Theorem) 에서, 자연수의 속성을 충분히 묘사하는 어떤 언어에서, 그 진리여부가 어떤 알고리즘에 의해 결정될 수 없다는 의미에서 결정불가능한 (undecidable) 진리 문장이 존재한다는 것을 보여주었다.

이러한 근본적인 결과는 알고리즘으로 표현될 수 없는 정수에 기초한 함수 (some functions on the integers) 가 있는지 - 즉 그것이 컴퓨터 (Computer) 로 계산가능한지를 보여주는 것으로 해석될 수 있다.  이것이 Alan Turing (1912~1954) 이 그 함수들이 컴퓨터로 계산가능하다 라고 정확하게 정의하려고 노력한 계기가 되었다 (계산가능성 이론 (Computability Theory)). 이러한 개념은 실제로는 다소 의심스러운 것이었다. 왜냐하면 계산 (computation) 이나 효율적인 (effective) 절차의 개념은 사실은 형식적인 정의를 할 수가 없었기 때문이다. 그러나 튜링 기계 (Turing Machine) (Turing 1936) 는 어떤 계산가능한 함수도 계산할 수 있다고 서술한 처치-튜링 명제 (Church-Turing Thesis) 는 충분한 정의를 제공한 것으로 일반적으로 받아들여졌다. Turing 은 또한 어떠한 튜링기계도 계산할 수 없는 함수들이 존재한다는 것을 보여주었다. 예를들면, 어떤 기계도 주어진 프로그램이 주어진 입력에 대해 하나의 대답을 리턴할 것인지, 영원히 작동할 것인지를 일반적으로 (in general) 말할 수 없다 (정지문제 (Halting Problem)).

비록 결정불가능성 (undecidability) 와 계산불가능성 (noncomputability) 이 계산의 이해에 중요하지만, 다루기어려움 (intractability) 라는 개념은 훨씬 더 큰 의미를 가지고 있다. 대강 얘기하자면, 문제를 해결하기 위해 필요한 시간이 문제의 크기에 따라 지수적으로 (exponential) 증가한다면 그 문제는 난해 (intractable) 하다고 한다. 복잡성 (Complexity) 에서의 다항식과 지수적 (polynomial and exponential) 증가 사이의 차이는 1960 년대 중반에 처음 강조되었다 (Cobham 1964 ; Edmonds 1965). 지수적인 증가는 다소 큰 문제 조차도 이성적인 시간내에 풀릴 수 없다는 것을 의미하기 때문에 중요하다. 따라서 지능적인 행동을 생성하는 난해한 (intractable) 전체문제를 다루기쉬운 (tractable) 하위문제들로 나누어서 해결하려 해야 한다.

난해한 문제 (intractable problem) 인지 아닌지를 어떻게 인식할 수 있는가? Stephen Cook (1971) 과 Richard Karp (1972) 가 개척한 비결정 완전 (NP-complete) 이론은 하나의 방법을 제공한다. Cook 과 Karp 는 NP-complete 인 문제들, 즉 표준이 되는 조합탐색 (combinatorial search) 와 추론 (Reasoning) 문제를 크게 분류해 놓은 것 (표) 을 보여주었다. NP-complete 의 분류 (표) 로 환원될 수 있는 어떠한 문제도 intractable 일 것이다. (비록 NP-complete 문제들이 반드시 intractable 하다고 증명되지는 않았지만 대부분의 이론가들이 그것을 믿는다). 이러한 결과는 대중언론에서 최초의 컴퓨터를 "아인슈타인보다 더 빠른!" "전자 슈퍼 두뇌 (super-brain)" 이라며 환영했었던 낙관론과는 상반되는 것이다. 컴퓨터 (Computer) 의 속도가 점점 증가함에도 불구하고, 자원들을 주의깊게 사용해야만 지능적 시스템이 가능하게 될 것이다. 거칠게 보자면, 세계는 극단적으로 (extremely) 큰 문제의 사례 (instance) 인 것이다!  최근의 몇 년사이에 AI 는 NP-complete 문제의 사례 (instance) 들이 왜 어려운지 (hard), 그러나 다른 것들은 쉬운지 (easy) 를 설명하는데 도움을 주었다 (Cheeseman et al 1991).

논리와 계산이외에, 수학 (Mathematics) 이 AI 에 공헌한 세 번째는 확률 (Probability) 이론이다. 이탈리아인 Gerolamo Cardano (1501~1576) 가 최초로 확률 개념의 틀을 잡았는데, 도박사건 (gambling events) 에서 가능한 결과의 의미로 확률을 묘사했다. 확률은 빠르게 모든 계량과학 (quantitative science) 에서 매우 중요한 부분이 되었으며, 불확실성 측정과 불완전한 이론을 다루는데 도움을 주었다. Pierre Fermat (1601~1665), Blaise Pascal (1623~1662), James Bernoulli (1654~1705), Pierre Laplace (1749~1827) 외 여러사람이 그 이론을 발전시켰고 새로운 통계적 방법을 소개했다. Thomas Bayes (1702~1761) 는 새로운 증거가 나타났을 때 기존의 확률을 업데이트하는 규칙을 제안했다. Bayes'rule 과 그 결과로 등장한 베이즈 해석 (Bayesian analysis) 분야는 인공지능 (Artificial Intelligence) 시스템에서 불확실성 (Uncertainty) 추론을 할 때 가장 현대적인 접근방법의 기초를 형성하게 된다.  

경제학 (1776 ~ 현재까지)

경제과학 (science of economics) 은 1776 년에 스코틀랜드 철학자 Adam Smith (1723~1790) 이 An Inquiry into the Nature and Causes of the Wealth of Nations 를 출간하면서 시작되었다. 고대의 그리스 인들과 많은 사람들이 경제 사상에 공헌을 했지만, Smith 는 처음으로 경제를 하나의 과학으로 취급하여, 경제란 자신의 경제적 부를 최대화 시키려는 각개 agents 로서 구성된다고 생각하는 아이디어를 사용했다. 대부분의 사람들이 경제를 돈에 관한 것으로만 생각하는데, 경제학자들은 어떻게 하면 사람들이 더 나은 결과를 낳는 선택을 할 수 있는지를 연구한다고 말할 것이다. "더 나은 결과 (preferred outcomes)" 나 효용성 (utility) 의 수학적 처리는 Leon Walras (1834~1910, Valrasse 로 발음) 가 최초로 형식화하고 Frank Ramsey (1931) 가 발전시키고 나중에는 John von Neumann 과 Oskar Morgenstern 이 그들의 공저 Theory of Games and Economics Behavior (1944) 에서 다루었다.

확률이론 (Probability theory)효용이론 (Utility Theory) 를 결합한 결정이론 (Decision Theory)불확실성 (Uncertainty) 하에서 의사결정 (Decision Making) (경제나 다른분야의) 을 위한 형식적이고 완전한 틀을 제공한다 - 즉 확률적 묘사가 의사결정자의 환경을 적절하게 표현하는 경우에. 이것은 각 agent 가 개인으로서의 다른 agent 의 행동을 유의할 필요가 없는 "큰" 경제에 적합하다. "작은" 경제의 경우는 그 상황이 하나의 game 과 같다 : 한명의 게임 플레이어의 행동이 다른 플레이어의 효율에 크게 (긍정적이든 부정적이든) 영향을 미칠 수 있다. John von Neumann 과 Morgenstern 이 개발한 게임 이론 (Game Theory) (Luce and Raiffa 1957 참조) 는 놀라운 결과를 포함하는데, 즉 어떤 게임에서는 합리적인 에이전트 (rational agent) 가 임의적인 방식으로, 적어도 게임의 상대자에게는 임의적으로 보이는 방법으로 행동해야 한다는 것이다.

대체로 경제학자들은 위에서 언급한 세 번째 질문, 즉 행동에 대한 보상 (payoff) 이 즉각적이지 않고 대신에 순서대로 (in sequence) 취해지는 여러 행동에서 나올 경우에 합리적인 결정을 어떻게 하는가 하는 질문을 제기하지 않았다. 이러한 주제는 경영과학 (Operation Research) 라는 분야에서 추구하는 것으로, 그것은 영국에서 레이다 설치를  최적화하기 위해서 2차 세계대전에서 등장하고 나중에는 복잡한 경영상의 의사결정 (complex management decisions) 에서 응용되었다. Richard Bellman (1957) 의 작업은 Markov decision processes 라고 불리우는 일종의 순서결정문제 (sequential decision problem) 를 형식화 했으며, Chapter 17 과 21 에서 다루어진다.

경제학과 경영과학 (operation research) 에서의 작업은 합리적인 에이전트 (rational agents) 의 개념에 많은 공헌을 하였지만, 오랫동안 AI 연구는 완전히 다른 경로를 따라 개발되었다. 하나의 이유는 합리적인 의사결정의 명확한 복잡성 (complexity) 때문이다. AI 의 개척자인 Herbert Simon (1916~2001) 은 1978 년에 노벨 경제학상을 받았는데, 그의 초기의 업적은 satisficing (어렵게 최적의 결정 (optimal decision) 을 계산하는 것보다 차라리 "그정도면 됐다 (good enough)" 는 식의 의사결정을 내리는 것) 에 기초한 모델이 실제 인간의 행동을 더 잘 묘사한다는 것을 보여준 것이었다 (Simon 1947). 1990 연대에 에이전트 시스템 을 위한 decision-theoretic techniques 에 관한 관심이 부활하게 된다 (Wellman 1995). 

신경과학 (1861 ~ 현재까지)

신경과학은 신경시스템 특히 두뇌 (Brain) 에 대해서 연구한다. 두뇌에서 사고 (thought) 가 이루어지는 것은 과학의 큰 미스터리중 하나이다. 두뇌가 어떻든 사고과정에 포함되는 것으로 수천년동안 인정된 것은 두뇌에 강한 외상을 입었을 때 정신적 무능력 상태가 되는 것이 그 증거였다. 인간의 두뇌는 특별하다고 오랫동안 알려져왔다 : 기원전 335 년에 Aristotle 은 "모든 동물중에서 인간이 신체사이즈에 비해 가장 큰 두뇌를 가지고 있다" 고 서술했다 (주석 : 지금은 일부 돌고래와 고래에서 두뇌의 크기가 상대적으로 더 큰 것이 발견되었다. 인간 두뇌의 큰 사이즈는 지금은 그 cooling system 에서 최근의 진보를 가능하게 한 것으로 생각된다). 그러나 18 세기 중반까지도 두뇌는 의식 (consciousness) 의 자리로서 널리 인식되지는 않았다. 그때까지도 의식이 심장 (heart), 비장 (spleen), 송과선 (pineal gland) 등에 있다고 믿었다.

Paul Broca (1824~1880) 는 1861 년에 두뇌 손상 환자에서의 실어증 (aphasia, 언어결함) 에 대해 연구하여 두뇌 연구를 다시 활성화 시켰고, 두뇌의 국소부위가 특정 인지 기능을 맡고 있다는 의학적인 확신을 주장했다. 특히 그는 언어의 생성은 지금은 브로카 영역 (Broca's area) 이라고 알려진 좌측반구 (left hemisphere) 부위에서 이루어진다는 것을 보였다 (주석 : 많은 사람들이 Alexander Hood (1824) 를 아마도 그 선구자 (prior source) 라고 인용한다). 그때부터 두뇌는 신경세포 또는 Neuron 로 구성되는 것으로 알려졌는데, 그것은 1873 년 Camillo Golgi (1843~1926) 가 두뇌의 각 뉴런을 관찰할 수 있게 하는 염색 (staining) 기술을 개발하면서 부터이다 (그림 1.2 참조). 이 기술은 Santiago Ramon y Cajal (1852~1934) 이 사용하여 두뇌의 신경구조에 대한 연구를 개척했다 (주석 : Golgi 는 두뇌의 기능이 주로 뉴런이 포함되어있는 continuous medium 에서 수행된다는 믿음을 고집했고, 반면에 Cajal 은 "neuronal doctrine" 에서 이론을 제기했다. 그들은 1906 년에 노벨상을 공동수상했으나 서로 상반되는 수락 연설을 하였다).

지금은 두뇌의 영역과 두뇌가 감각 입력을 받아서 통제하는 신체부위 사이에 mapping 을 보여주는 데이터를 가지고 있다. 그러한 mapping 는 몇주간의 과정동안에 근본적으로 변화할 수 있고, 어떤 동물에서는 여러개의 (multiple) maps 를 가진 것으로 보인다. 더구나 두뇌의 한 부위가 손상되었을 때 다른 부위가 어떻게 기능을 대신할 수 (take over) 있는지를 완전히 이해하지 못하고 있다. 각각의 기억 (memory) 가 어떻게 저장되는 지에 대한 이론도 거의 없다.

순수한 두뇌활동의 측정은 Hans Berger 가 1929 년에 electroencephalograph (EEG) 를 발명하면서 시작되었다. 최근의 기능적 자기공명영상 (fMRI) 의 개발은 (Ogawa et al 1990) 신경과학자들에게 전례없는 두뇌활동에 대한 자세한 이미지를 제공하였고, 흥미로운 방법으로 작동중인 인지과정과 일치하는 측정을 할 수 있게 하였다. 이러한 것들이 뉴런 활동의 단일 세포 기록까지 할 수 있게 진전시켰다. 이러한 진전에도 불구하고, 여전히 이러한 인지과정들이 실제로 어떻게 작동하는지를 이해하는 것은 먼 길이다.

정말로 놀라운 결론은 단순한 세포들의 모음이 사고, 행동, 의식을 유발할수 있다, 즉 두뇌는 마음의 원인이 된다 (brains cause minds, Searl 1992) 는 것이다. 유일한 실제의 변형 이론은 신비주의 (mysticism) 이다 : 그것은 마음이 물리과학 (physical science) 을 초월해서 작동하는 어떤 신비스런 영역이 있다는 것이다.

 

컴퓨터

인간 두뇌

계산 단위

1 CPU, 108 gates

1011 neurons

저장 단위

1010 bits RAM

1011 bits disk

1011 neurons

1014 synapses

Cycle time

10-9  sec

10-3  sec

Bandwidth

1010  bits/sec

1014  bits/sec

Memory updates/sec

109  

1014

두뇌와 디지털 컴퓨터는 아주 다른 작업을 수행하며 다른 성질을 가지고 있다. 그림 1.3 에서 보듯이 전형적인 인간 두뇌에는 최고성능의 컴퓨터의 CPU 에 있는 gates 보다 1000 배나 더 많은 뉴런이 있다. Moor 의 법칙은 2020 년쯤에는 CPU 의 gate 수가 두뇌의 뉴런수와 같아질 것이라고 예상한다 (주석 : Moor 의 법칙은 제곱인치당 (per square inch) 트랜지스터의 수가 1~1.5 년마다 두배가 된다는 것이다. 인간의 두뇌 용량은 대강 2~4 백만년 마다 두배가 된다). 물론 그러한 예측으로부터 어떤 것도 추론할 수는 없다 : 더구나 저장 능력 (storage capacity) 에서의 차이는 switching speed 와 병렬성 (parallelism) 에서의 차이에 비교하면 적은 편이다. 컴퓨터 칩은 1 nano second 에 하나의 명령을 수행할수 있다, 반면에 뉴런은 수백만배 더 느리다. 그러나 두뇌는 이 시간을 만회하고도 (make up for) 남는데, 그것은 모든 뉴런과 시냅스들이 동시에 활성화하기 때문이다. 반면에 대부분의 최근의 컴퓨터는 한번에 하나의 일만 하던가 아니면 기껏해야 몇 개의 CPU 를 가질뿐이다. 그래서 비록 컴퓨터가 순수한 switching speed 에서 백만배 더 빠르지만, 두뇌는 컴퓨터보다 100,000 배 더 빠르게 일을 끝낸다.

심리학 (1879 ~ 현재까지)

과학 심리학 (Psychology) 의 기원은 독일 물리학자 Herman von Helmholtz (1821~1894) 와 그의 제자 Wilhelm Wundt (1832~1920) 의 작업으로 거슬러 올라간다. Helmholtz 는 인간의 시각 (Vision) 연구에 과학적 방법을 응용했고, 그의 저서 'Handbook of Physiological Optics' 는 오늘날 "인간시각의 물리학과 생리학 (Physiology) 에 대한 가장 중요한 논문" 으로 평가되고 있다 (Nalwa 1993, p.15). 1879 년에 Wundt 는 Leipzig 대학에 최초의 실험심리학 lab 을 만들었다. Wundt 는 그의 작업이 사고과정 (thought process) 이 내부적으로 일어나는 동안 지각 또는 연관 작업 (perceptual or associative task) 이 어떻게 수행하는 지을 주의깊은 통제하에서 실험하는 것이라고 주장했다. 심리학을 하나의 과학으로 만들기 위해서는 주의깊은 통제는 계속되어야 했지만, 데이터의 주관적인 성격 때문에 실험자가 스스로의 이론을 확신하지 못하여 가능성이 없게 만들었다. 이와는 반대로 생물학자는 동물 행동을 연구하면서 내부적인 (introspective) 데이터가 부족하여 객관적인 방법론을 개발했는데, 그것은 H. S. Jennings (1906) 이 그의 유명한 저서 'Behavior of the Lower Organisms' 에서 묘사했다. 인간에 대해 이러한 관점을 응용한 행동주의 (Behaviorism) 운동은 John Watson (1878~1958) 이 주도한 것으로, 자기성찰 (introspection) 은 믿을 만한 증거를 제공할 수 없다는 근거하에 정신적 (mental) 과정을 포함하는 어떤 이론도 거부했다. 행동주의자들은 동물에 주어진 지각 (또는 stimulus) 의 객관적인 측정과 그 결과로서의 행동 (또는 response) 만을 연구해야 한다고 주장했다. 지식, 믿음, 목표, 추론 단계 와 같은 정신적 구조는 비과학적인 "민속 (folk) 심리학" 이라고 도외시 했다. 행동주의는 쥐와 비둘기에 대해 많은 것을 발견했지만 인간을 이해하는 데에는 거의 성과를 거두지 못했다. 그럼에도 불구하고, 행동주의는 1920 년부터 1960 년까지 심리학에 강한 영향력을 가지고 있었다 (특히 미국에서).

두뇌 (Brain) 를 정보처리 장치로 보는 견해는, 인지 심리학 (Cognitive Psychology) 의 주요한 특징으로서, 적어도 William James (1842~1910) 의 작업으로 거슬러 올라갈 수 있다 (William James 는 소설가 Henry James 와 형제로서, Henry 는 마치 심리학처럼 소설을 썼고, William 은 마치 소설처럼 심리학을 썼다고 전해진다). Helmholtz 는 또한 지각 (Perception) 은 무의식적인 논리적 추론의 한 형태를 포함한다고 주장했다. 인지적 (cognitive) 관점은 미국에서는 행동주의에 가려 빛을 보지 못했지만, Frederic Bartlett (1886~1969) 이 소장으로 있던 Cambridge 의 Applied Psychology Unit 에서는 인지 (Cognition) 모델링이 꽃필수 있었다. Bartlett 의 제자이며 후계자인 Kenneth Craik (1943) 가 저술한 'The Nature of Explanation' 에서, 기체 (gases) 에 대해 이야기 할 때 기체의 분자로 구성되어 있지 않음에도 불구하고 압력 (pressure) 와 온도 (temperature) 라는 용어를 사용하는 것처럼, "정신 (mental)" 의 용어로서 믿음 (belief) 과 목표 (goal) 과 같은 용어를 사용하는 것은 과학적이라고 주장하면서 정당성 (legitimacy) 을 재정립했다. Carik 는 지식베이스 에이전트 (knowledge-based agent) 를 특징짓는 세 개의 핵심 단계를 제시했다 : (1) 자극 (stimulus) 은 내부표현 (internal representation) 으로 바뀌어야 한다, (2) 그 표현은 새로운 내부표현을 유도하기 위한 인지과정(cognitive process) 에 의해 조작되어야 한다, (3) 이것들은 차례대로 행동 (action) 으로 다시 바뀌어야 한다. 그는 이것이 왜 에이전트 (Agent) 를 위한 좋은 설계인지를 명확히 설명했다.

Craik 가 1945 년에 자전거 사고로 사망한후 그의 작업은 Donald Broadbent 가 계속했고, 그의 저서 'Perception and Communication (1958)' 에서는 최초로 심리현상을 정보처리 모델로 만든 것이 포함되었다. 반면에 미국에서는, 컴퓨터 (Computer) 모델링이 발달하면서 인지과학 (Cognitive Science) 이라는 분야가 창조되었다. 그 분야는 1956 년 9 월에 MIT 에서의 워크샵에서 시작되었다고 할 수 있다 (인공지능 (Artificial Intelligence) 라는 용어가 탄생한 학술회의가 열린 2 개월 후라는 사실에 주목하자). 그 워크샵에서 George Miller 는 'The Magic Number Seven' 을 발표하고, Noam Chomsky 는 'Three Models of Language' 를 발표하고, Allen Newell 과 Herbert Simon 은 'The Logic Theory Machine' 라는 논문을 발표했다. 이 세 개의 영향력있는 논문은 컴퓨터 모델들이 어떻게 해서 기억 (Memory), 언어 (Language), 논리적 사고 (Thinking) 의 심리학에 각각 접근하기 위해 사용될 수 있는지를 보여주었다. 지금은 "인지이론 (cognitive theory) 은 컴퓨터 프로그램과 같은 것이어야 한다" (John R. Anderson 1980), 즉 그것은 어떤 인지 기능이 구현됨에 의해서 어떤 섬세한 정보처리 메카니즘을 묘사해야 한다는 것으로 심리학자들 사이에서는 공통되는 견해이다.

컴퓨터공학 (1940 ~ 현재까지)

AI 가 성공하려면 두가지 즉 지능과 인공물 (artifact) 가 필요하다. 컴퓨터는 최고의 인공물이었다. 현대적인 디지털 전자컴퓨터는 2차 세계대전에서 각축을 벌이던  3개국의 과학자들이 독립적으로 거의 동시에 발명했다. 최초로 작동하는 (operational) 컴퓨터는 전기기계장치 Heath Robinson 으로서 1940 년에 Alan Turing 팀이 독일군의 메시지를 해독하기 위한 단 하나의 목적을 위해 만든 것이었다 (주석 : Heath Robinson 은 토스트에 버터를 바르는 기계같은 기발하고 우스꽝스럽게 복잡한 기계장치들을 묘사한 것으로 유명한 만화가의 이름이다). 1943 년에 같은 그룹에서 Colossus 를 개발했는데, 그것은 진공관으로 만든 강력한 범용 (general-purpose) 기계였다 (주석 : 전쟁이후 Turing 은 이 컴퓨터들을 AI 연구, 예를들면 최초의 체스 프로그램같은 AI 연구에 사용하기를 바랬다. 그의 노력은 영국정부에 의해 차단당했다). 최초의 프로그램가능한 (programmable) 컴퓨터는 1941 년에 독일에서 Konrad Zuse 가 발명한 Z-3 이다. Zuse 는 부동소수점 (floating-point numbers) 을 발명했고, 최초의 고급 프로그램언어 Plankalkul 을 발명했다. 최초의 전자 (electronic) 컴퓨터 ABC 는 1940 년에서 1942 년 사이에 Iowa 주립대학의 John Atanasoff 와 그의 제자 Clifford Berry 가 만들었다. Atanasoff 의 연구는 거의 지원을 받지 못했고 주목받지도 못했다 ; 현대적인 컴퓨터의 가장 영향력있는 선조로서 증명된 것은 ENIAC 으로서, John Mauchly 와 John Eckert 가 포함된 팀이 Pennsylvania 대학에서 비밀군사 프로젝트의 일부로서 개발된 것이다.

그로부터 반세기가 지나서 컴퓨터 하드웨어의 각 세대는 속도와 용량은 증가하고 가격은 하락했다. 18 개월마다 성능이 두배가 되고 증가 속도가 10년 또는 20 년간 지속된다. 그 후에 우리는 분자 공학 (molecular engineering) 또는 다른 새로운 기술을 필요로 할 것이다.

물론 전자 컴퓨터 이전에 계산 장치가 있었다. 17 세기부터 따져서 가장 빠른 자동 기계는 page 6 에서 논의됐다. 최초의 프로그램 가능한 (programmable) 기계는 1805 년에 Joseph Marie Jacquard (1752~1843) 가 고안한 베짜는 틀이었는데, 그것은 천공 카드를 사용해서 베를 짜는 패턴을 위한 명령어를 저장한 것이었다. 19 세기 중엽에 Charles Babbage (1792~1871) 는 두 개의 기계를 설계했는데 모두 완성되지는 않았다. 그중 "Difference Engine" 은 이책의 표지에 나오는데, 공학과 과학 프로젝트를 위한 수학 tables 를 계산하기 위한 것이었다. 그것은 결국 1991 년에 런던의 Science Museum 에서 만들어져서 작동하는 것을 보여주었다 (Swade 1993). Babbage 의 "Analytical Engine" 은 훨씬 더 야심적이었다 : 그것은 addressable memory, 저장된 프로그램, 조건분기 (conditional jump) 그리고 범용 (universal) 계산을 할 수 있는 최초의 인공물이었다. Babbage 의 동료 Ada Lovelace 는, 시인 Lord Byron 의 딸이기도 한데, 아마 세계 최초의 프로그래머 일 것이다. (프로그램 언어 Ada 는 그녀의 이름에서 딴 것이다) 그녀는 완성되지 않은 Analytical Engine 를 위한 프로그램을 작성했고 그 기계가 체스를 하거나 음악을 작곡할 수 있다고 상상하기도 했다.

AI 는 또한 컴퓨터과학의 소프트웨어 분야의 도움을 많이 받았다. 즉 운영체제, 프로그램 언어, 현대적인 프로그램을 (또한 그에 관한 논문을) 작성하는데 필요한 툴을 제공했다. 그러나 이러한 도움을 준 것은 보상을 받았다 : 즉 AI 에서의 작업은 소프트웨어 분야를 컴퓨터과학의 주류가 되게하는 많은 아이디어를 개척했다. 예를들면 시분할 (time sharing), 대화형 인터프리터 (interactive interpreter), 윈도우즈와 마우스가 장착된 PC, 빠른 개발환경 (rapid development environments), 연결리스트 데이터형 (linked list data type), 자동 저장장치 관리 (automatic storage management), symbolic, functional, dynamic 의 핵심 개념, 객체지향 프로그래밍 (object-oriented programming) 등이 그것이다. 

제어이론 (Control Theory) 사이버네틱스 (Cybernetics) (1948 ~ 현재까지)

Alexandria 제국의 Ktesibios 는 기원전 250 년에 최초의 스스로 제어하는 기계를 만들었다 : 그것은 일정하게 예측가능한 페이스를 유지하며 물의 흐름을 유지하는 조절기를 가진 물시계였다. 그것은 인공물이 무엇을 할 수 있는가에 대한 정의를 변화시켰다. 이전에는 살아있는 생물만이 주변환경의 변화에 따라 스스로의 행동을 변경시킬 수 있었다. 스스로 조절하는 feedback control system 의 다른 예를 들자면 James Watt (1736 ~1819) 가 발명한 증기엔진 조절기 (governor), 자동 온도조절 장치 (thermostat) 를 발명한 Cornelis Drebbel (1572 ~ 1633, 잠수함을 개발하기도 했다) 등을 들 수 있다. 안정적인 feedback system 의 수학적 이론은 19 세기에 개발되었다.

제어이론 (control theory) 이라고 불리는 것을 만든 중심 인물은 Norbert Wiener (1894 ~1964) 이다. Wiener 는 Bertrand Russell 과 같이 일하던 탁월한 수학자였지만 나중에는 생물학적 기계적 제어시스템과 그것을 인지 (cognition) 와 연결시키는 것에 흥미를 가지게 된다. Like Craik (심리학 모델로서 제어시스템을 사용한 인물), Wiener 와 그의 동료들 Arturo Rosenblueth 와 Julian Bigelow 등은 (심리학의) 행동주의자의 정통성에 도전했다. 그들은 목적있는 행동 (purposive behavior) 이란 현재의 상태와 목적 상태간의 "오차 (error)" 를 최소화 시키려는 조절 메카니즘에서 나오는 것이라고 보았다. 1940 연대 말에 Wiener 는 Warren McCulloch, Walter Pitts, John von Neumann 등과 함께 일련의 학술대회를 개최하여, 새로운 인지의 수학적 계산적 모델 (mathematical and computational model of cognition) 을 탐구하여 행동과학의 많은 연구자들에게 영향을 끼쳤다. Wiener 의 책 Cybernetics (1948) 은 베스트셀러가 되었고 사람들에게 인공적인 지능기계의 가능성을 일깨웠다.

현대 제어이론, 특히 추계학적 최적제어 (stochastic optimal control) 로서 알려진 분야는, 시간에 따라서 목적함수 (objective function) 를 최대로 만드는 시스템을 설계하는 것을 목적으로 한다. 이것은 대체로 AI 에 대한 우리의 견해, 즉 적절하게 (optimally) 행동하는 시스템을 설계한다는 것과 일치한다. 그러면 왜 AI 와 제어이론은 서로 다른 분야인가? 더구나 그 개척자간에 밀접한 커넥션이 있는데도 말이다. 그 대답은 연구 참여자에게 익숙한 수학적 테크닉과 각자의 영역에서 마주치는 문제들간의 밀접한 연결에 있다. 계산과 행렬대수 (calculus and matrix algera), 제어이론의 툴들은 연속변수의 고정된 집합 (fixed sets of continuous variables) 으로 설명되는 시스템에 적합하다 ; 더구나 정확한 해석 (exact analysis) 은 전형적으로 선형 시스템에만 가능하다. AI 는 1950 연대의 제어이론에서의 수학의 한계로부터 벗어나려는 하나의 방법으로 시작된 것이다. 논리적 추론과 계산의 툴이 개발되면서 language, vision, planning 같은 몇가지 문제들을 AI 연구자들이 다룰 수 있게 되면서, 제어 이론가들의 범위에서 완전히 벗어나게 된 것이다.

언어학 (linguistics) (1957 ~ 현재까지)

1957 년에 B. F. Skinner 는 Verbal Behavior 를 출간했다. 이것은 최고의 전문가가 쓴, 언어 학습 (Learning) 에 대한 행동주의적 접근을 종합적이고 자세하게 설명한 것이었다. 그러나 기묘하게도 그 책의 review 판이 그 책 만큼이나 유명하게 되었고, 행동주의를 절멸시키는 (kill off) 역할을 한다. 그 review 의 저자는 스스로의 이론을 정리하여 변형-생성문법의 이론 (Syntactic Structures) 를 출간한 Noam Chomsky 였다. Chomsky 는 행동주의 이론이 언어에 있어서의 창의성 (Creativity) 의 개념을 얼마나 전달하지 못하는지를 보여주었다 - 행동주의 (Behaviorism) 는 어떻게 어린이들이 전에 들어본 적이 없는 문장을 이해하고 생성하는지를 설명하지 못했다. Chomsky 의 이론은 - 인도의 언어학자 Panini (기원전 350 년) 로 되돌아 가는 문법 모델 (syntactic model) 에 기초한 것으로서 - 이것을 설명할 수 있고, 이전의 이론과는 달리, 그것은 원칙적으로 프로그램될 수 있을만큼 충분히 형식적 (formal) 이었다.

현대언어학 과 인공지능 (Artificial Intelligence) 는 아마 비슷한 시기에 태어났고 함께 성장했으며, 두 분야를 합쳐서 전산언어학 (Computational Linguistics) 이나 자연어처리 (Natural Language Processing) 이라 부른다. 자연어를 이해하는 문제는 1957 년에 생각했던 것보다 상당히 더 복잡하다는 것으로 판명되었다. 언어 (Language) 를 이해 (Understanding) 한다는 것은 문장의 구조를 이해하는 것 뿐만아니라 내용 (subject matter) 과 문맥 (Context) 에 대한 이해를 필요로 한다. 이것은 분명한 것이었지만 1960 연대까지는 널리 이해되지 못했었다. 지식표현 (Knowledge Representation) (어떻게하면 지식을 컴퓨터가 추론 (Reasoning) 할 수 있는 형태로 입력할 것인지를 연구) 의 많은 초기 작업이 언어 (language) 와 결합되었고 언어학의 연구로부터 정보를 얻었으며, 이어서 언어의 철학적 분석에 대한 수십년에 걸친 작업으로 연결되었다.

1.3   AI 의 역사

배경이 되는 지식을 가지고 AI 자체의 발달을 살펴보자

AI 의 태동 (1943 ~ 1955)

일반적으로 AI 로 인식되는 최초의 작업은 Warren McCulloch 와 Walter Pitts (1943) 에 의해 이루어졌다. 그들은 세가지 소스에 따른 것 으로서, 즉 뇌에서의 기초 생리학 (physiology) 과 뉴런의 기능에 대한 지식, Russell 과 Whitehead 에 따른 명제논리 (Propositional Logic) 의 형식적 분석, Turing 의 계산이론 (Theory of Computation) 이 그것이다. 그들은 인공 뉴런모델을 제안했는데, 충분한 수의 인접 뉴런에 의해 자극 받으면  "on" 을 발생시키는 스위치를 가진 각각의 뉴런이 "on" 또는 "off" 값을 가지게 된다. 뉴런의 상태는 "적절한 자극이 주어진 명제 (proposition, 참 또는 거짓의 값을 가지는) 와 사실상 동등한" 것으로서 이해된다. 그들이 보여준 것은 예를들면 어떤 계산가능한 함수도 서로 연결되어있는 뉴런의 네트워크로 계산할 수 있으며, 모든 logical connective (and, or, not 등등) 들도 간단한 망구조로 구현될 수 있다는 것이다. 그들은 또한 적절하게 정의된 네트워크는 학습 (learn) 할 수 있다고 제안하였다. Donald Hebb (1949) 은 뉴런간의 연결강도를 조정하기 위한 간단한 규칙의 업데이트 (updating rule) 를 보여주었다. 그의 규칙은 지금도 Hebbian learning 으로 불리우며 오늘날에도 영향을 미치는 모델로 남아있다.

Princeton 수학과의 졸업생들인 Marvin Minsky 와 Dean Edmonds 는 1951 년에 최초의 신경망 컴퓨터를 만들었다. 소위 SNARC 라는 것으로서 40 개의 뉴런의 네트워크를 시뮬레이트 하기위해 3000 개의 진공관과 B-24 전폭기로부터 surplus automatic pilot mechanism 을 사용했다. Minsky 의 박사 심사위원회는 그러한 종류의 작업이 수학적으로 고려될 수 있는지에 대해 회의적이었지만, John von Neumann 은 "그것이 지금은 아닐지라도 언젠가는 이루어질 것이다" 라고 보고하였다. Minsky 는 나중에 신경망 (Neural Network) 연구의 한계를 보여주는 유명한 정리를 증명하게 된다.

AI 라고 일컬을 수 있는 많은 초기의 예들이 있지만, AI 의 완전한 비전을 최초로 명료하게 한 사람은 Alan Turing 으로서, 1950 년에 "Computing Machinery and Intelligence" 에서 튜링 테스트 (Turing Test), 기계 학습 (Machine Learning), 유전알고리즘 (Genetic Algorithm), 강화 학습 (Reinforcement learning) 를 소개하였다.

AI 의 탄생 (1956)

Princeton 은 또 다른 AI 의 거장인 John McCarthy 의 모교이기도 하다. 그는 졸업후 Dartmouth 대학으로 옮겼고 이곳에서 AI 의 공식적인 탄생이 이루어진다. McCarthy 는 Marvin Minsky, Claude Shannon, Nathaniel Rochester 등이 그를 도와 오토마타 (Automata) 이론, 신경망 (Neural Network), 지능 (Intelligence) 에 대한 연구에 관심이 있는 미국의 연구자들을 모을 것이라고 확신했다. 그들은 1956 년 여름 Dartmouth 에서 두달에 걸친 워크샵를 개최했다. 프린스턴의 Trenchard More, IBM 의 Arthur Samual, MIT 의 Ray Solomonoff, Oliver Selfridge 를 포함하여 10 명의 참석자가 있었다.

Carnegie Tech (나중의 CMU) 에서 온 Allen Newell 과 Herbert Simon 도 조용히 참여했다. 비록 다른이 들이 아이디어와 어떤 경우는 체커 와 같은 특별한 응용을 위한 프로그램을 가지고 있었지만, Newell 과 Simon 은 이미 추론 프로그램인 Logic Theorist (LT) 가 있었으며, Simon 은 "우리는 비수치적으로 사고할 수 있는 컴퓨터 프로그램을 발명했으며, 그것으로 캐캐묵은 심신문제 (Mind-Body Problem) 를 해결할 수 있다" 고 주장하였다. 그 워크샵 직후에 그 프로그램은 Russell 과 Whitehead 의 Principia Mathematica 의 2 장에 있는 대부분의 정리를 증명할 수 있었다.  Simon 이 Russell 에게 그 프로그램으로 하나의 정리를 위한 증명을 할 때 Principia 에서 보다도 더 짧게 증명하는 것을 보여주었고 Russell 은 기뻐했다고 전해진다. Journal of Symbolic Logic 편집자는 그리 큰 인상을 받지 못했고, Newell 과 Simon 공저의 저술과 Logic Theorist 의 출간을 거절했다.

Dartmouth 워크샵이 새로운 커다란 발전을 이루게 한 것은 아니지만 각각의 주요한 면모들을 소개는 한 것이다. 이후의 20 여년간 그 분야는 그때의 참석자와 학생들, MIT, CMU, Stanford, IBM 의 멤버들이 주도하게 된다. 그 워크샵에서 가장 오래 지속되는 인상적인 것은 McCarthy 가 그 분야를 artificial intelligence 라고 명명한 것에 동의한 것이었다. 아마도 "계산적 합리성 (computational rationality)" 라는 말이 더 나아보이지만 "AI" 가 채택되었다.

Dartmouth 워커샵에서 제안된 내용을 살펴보면 (McCarthy et al., 1955) 별개의 분야로서 왜 AI 가 필요한지를 알 수 있다. AI 에서 이루어지는 작업이 유사한 목적을 가지고 있는 제어이론 (Control Theory), Operation Research, 결정이론 (Decision Theory) 의 이름으로는 왜 이루어질 수 없는가? 또한 AI 는 왜 수학의 한 분야가 아닌가? 첫번째 대답은 AI 는 출발 때부터 창의성, 자기발전 (self-improvement), 언어사용 과 같은 인간의 능력을 복제한다는 아이디어를 가졌다는 것이다. 다른 분야에서는 그러한 주제를 가진 것이 없다. 두 번째 대답은 방법론에 있다. AI 는 예를든 분야중에서 가장 명확하게 컴퓨터과학의 한 분야이며 (물론 operation research 도 컴퓨터 시뮬레이션이 강조되기는 한다), 또한 AI 는 복잡하고 변화하는 환경에서 자동적으로 기능하는 기계를 만들려고 하는 유일한 분야이다.

초기의 열광, 커다란 기대 (1952 ~ 1969)

AI 의 초기 몇 년간은 제한된 방법내이긴 하지만 성공으로 가득찼다. 그 당시의 원시적인 컴퓨터와 프로그래밍 툴이 개발되고, 산술만 가능하고 그 이상을 할 수 없는 것으로 보였던 초기의 컴퓨터가 등장한 단지 몇 년 사이에, 가능성이 없어보이던 현명한 어떤 것을 컴퓨터가 할 때마다 사람들을 놀라게 했다. 전반적으로 "기계는 결코 X 는 할 수 없다" (Turing 이 모아놓은 X 리스트가 Chapter 26 에 있다) 고 믿으려고 하는 지능적인 작업에 대해, AI 연구자들은 자연적으로 또다른 것을 보이며 X 를 할 수 있다고 시범을 보였다. John McCarthy 는 이러한 시기를 "Look, Ma, no hands!" 시대라고 불렀다.

Newell 과 Simon 의 초기의 성공이후 나온 것이 GPS (general problem solver) 이다. LT (Logic Theorist) 와 달리 이 프로그램은 처음부터 인간의 문제해결 프로토콜을 모방하기 위해 설계된 것이다. 그 프로그램이 다루는 제한된 범위의 퍼즐에서 하위목표 (subgoal) 과 가능한 행동 (action) 을 고려하는 순서가 인간이 같은 문제를 접근하는 것과 유사한 것으로 판명되었다. GPS 는 아마도 "인간처럼 생각하는" 접근방식을 가진 최초의 프로그램일 것이다. 인지 모델로서의 GPS 와 이어지는 프로그램의 성공으로 Newell 과 Simon (1976) 은 유명한 physical symbol system 가설을 형식화하여 "하나의 physical symbol system 은 일반적인 지능적 행동을 위한 필요하고 충분한 수단을 가지고 있다" 라고 주장하였다. 그것이 의미하는 것은 지능을 가진 어떤 시스템도 (인간이든 기계든) 기호들로 구성된 자료구조를 조작하여 작동된다는 것이다. 우리는 나중에 이 가설이 여러 방향에서 도전을 받는 것을 알게될 것이다.

IBM 에서는 Nathaniel Rochester 와 그의 동료들이 몇 개의 최초의 AI 프로그램을 만들었다. Herbert Gelernter (1959) 는 기하 정리증명기 (Geometry Theorem Prover) 를 만들어서 수학을 공부하는 많은 학생들이 아주 교묘하게 찾는 정리들을 증명할 수 있었다. Arthur Samuel 은 1952 년에 일련의 checker (영국에서는 draughts) 프로그램을 작성했는데, 그것은 학습을 통해 아마추어 강자 수준의 실력을 갖출 수도 있었다. 그 방법으로 그는 컴퓨터가 지시한 것만을 수행할 수 있다는 관념을 반박하였으며 그의 프로그램은 곧 그것을  만든 사람 보다도 더 잘 게임을 할 수 있게 학습되었다. 그 프로그램은 1956 년 2 월에 TV 에 소개되어 강한 인상을 남겼다. Turing 처럼 Samual 도 computer 를 사용하는 시간에 어려움을 겪었다. 밤에 작업하며 그는 IBM 의 공장 부지에 있는 testing floor 에 있었던 기계를 사용했다. Chapter 6 에서 game playing 을 소개하며 Chapter 12 에서는 Samuel 이 사용한 학습 테크닉으로 논의를 확장한다.

McCarthy는 다트마우스에서 MIT로 옮겨가면서 역사적인 1958년에 중요한 3가지 업적을 남겼다 : MIT AI lab 메모 No 1 은 McCarthy 가 지금은 대표적인 AI 프로그램 언어가 된 고급언어 LISP 을 만들었다는 것이다. 최근까지 사용되는 고급언어중에서는 두 번째로 오래된 것으로서 이보다 1 년 앞서 FORTRAN 이 개발되었다. 두 번째는 비싼 컴퓨터의 사용료가 계속적으로 문제가 되었기 때문에 그는 동료들과 함께 time sharing 개념을 개발했다. 1958년에는 Programs with Commonsense 논문을 발표하면서 최초의 완전한 AI 시스템이라고 볼 수 있는 가설적 프로그램인 Advice Taker 를 서술했다. Logic Theorist 와 Geometry Theorem Prover 처럼, McCarthy 의 프로그램은 지식을 사용해서 문제 해결을 위해 탐색 (search) 하도록 설계되었다. 그러나 다른 것과는 달리 그것은 세상의 일반 지식을 포함하는 것이었다. 예를들면 몇 개의 간단한 공리 (axioms) 를 사용해서 프로그램이 비행기를 타러 공항으로 가는 계획 (plan) 을 생성할 수 있도록 하는 방법을 보여주었다. 또한 그 프로그램은 정상적인 작동 과정에서 새로운 공리들을 받아들일 수 있도록 설계되었기 때문에 다시 프로그래밍 (reprogrammed) 할 필요없이 새 영역에서 능력을 가지도록 하였다. Advice Taker 는 지식표현과 추론의 중심 원리를 포함한다 : 즉 세상과 에이전트의 행동이 세상에 영향을 미치는 방법에 대한 형식적이고 명시적인 표현, 그리고 연역 과정을 통해 이러한 표현을 조작할 수 있도록 하는데 사용된다. 1958 년의 논문이 오늘날까지도 얼마나 적절한 것으로 남아있는지는 명확하다.

1958 년에는 Marvin Minsky 가 MIT 로 옮겨갔지만, 그러나 McCarthy 와의 초기의 협력은 지속되지 않았다. McCarthy 는 형식논리에서의 표현과 추론을 강조하였지만, Minsky 는 프로그램이 작동하게 하고 궁극적으로는 반논리적 가능성 (anti-logical outlook) 을 개발하는데 흥미를 가지고 있었다. 1963 년에 McCarthy 는 Stanford 에서 AI lab 을 만들었다. 최종적인 Advice Taker 를 만들기 위해 논리를 사용하려던 그의 계획은 John A. RobinsonResolution method (first-order logic 을 위한 완전한 정리증명 알고리즘 ; Chapter 9 참조) 의 발견으로 추월당했다. Stanford 에서의 작업은 논리적 추론을 위한 general-purpose methods 를 강조했다. 논리를 응용한 것은 Cordell Green 의 question-answering and planning system (Green 1969b), Stanford Research Institute (SRI) 에서의 Shakey 로봇 프로젝트를 포함한다. SHAKEY 프로젝트는, Chaper 25 에서 논의되지만, 논리적 추론과 물리적 행동의 완전한 통합을 보여준 최초의 것이었다.

Minsky 는 지능을 요구하는 제한된 문제해결 (limited problem) 을 선택한 일련의 학생들을 지도하였다. 그 제한된 영역은 microworld 라고 불리게 되었다. James Slagle 의 SAINT 프로그램 (1963a) 은 전형적인 대학 1 학년 과정의 closed-form calculus integration problems 를 풀 수 있었다. Tom Evans 의 ANALOGY 프로그램 (1968) 은 그림 1.4 에서와 같은 IQ 테스트에서 나타나는 기하학 유추 문제 (geometric analogy) 를 풀었다. Daniel Bobrow 의 STUDENT 프로그램 (1967) 은 대수 이야기 문제 (algebra story) 를 풀었는데 예를들면 다음과 같다 :

가장 유명한 microworld 는 blocks world 이며 그림 1.5 에 보이는 것처럼 책상위에 있는 일련의 딱딱한 블록으로 구성된다 (보통은 책상위를 시뮬레이션한다). 이 세계에서의 일반적인 작업은 한번에 하나의 블록을 집을 수 있는 로봇 손을 사용해서 블록들을 재배치 시키는 것이다. 블록 세계는 David Huffman 의 vision project (1971), David Waltz 의 constraint-propagation work (1975), Patrick Henry Winston 의 학습이론 (1970), Terry Winograd 의 자연어 이해 프로그램 (1972), Scott Fahlman 의 planner (1974) 등등에 모두 사용되었다.

그림 1.4

그림 1.5

 

McCulloch 와 Pitts 의 신경망 (Neural Network) 을 구축한 초기 작업이 또한 꽃피웠다. Winograd 와 Cowan 의 작업 (1963) 은 견고성 (robustness) 와 병렬성 (parallelism) 을 증가시키면 많은 수의 요소들이 어떻게 각각의 개념을 표현할 수 있는지를 보여주었다. Hebb 의 학습 방법은 Bernard Widrow (Widrow and Hoff 1960 ; Widrow 1962) 가 발전시켜 adaline 으로 불리웠고, Frank Rosenblatt (1962) 은 perceptrons 로 발전시켰다. Rosenblatt 은 perceptron convergence theorem 을 증명하였는데, 그것은 그의 학습 알고리즘이 어떤 입력 데이터이든지 매치되는 것만 있다면 perceptron 의 연결강도를 조정할 수 있다는 것을 보여주었다. 이 주제는 Chapter 20 에서 다룬다

현실의 쓴 경험 (1966 ~ 1973)

처음부터 AI 연구자들은 다가오는 성공을 예측하는 것을 서슴치 않았다. 다음에 Herbert Simon 이 1957 년에 한 발언이 가끔 인용된다 :

"가까운 미래" 라는 말이 여러 가지로 해석될 수 있지만 Simon 은 훨씬 구체적인 예상을 하였는데 : 10 년이 지나면 체스 챔피언이 되고 중요한 수학 정리가 기계에 의해 증명될 것이라는 것이다. 이러한 예상은 40 년 또는 그 보다 10 년이 더 지나서 실현되었다 (또는 거의 실현되었다). Simon 의 과신은 간단한 예제에 대해서 초기의 AI 시스템의 성능이 좋았기 때문이다. 그러나 거의 모든 경우에 있어서, 초기의 시스템은 문제을 더 넓게 선택하고 더 어렵게 되었을 때는 비참할 정도로 실패하게 된다.

첫 번째로 어려운 점은 대부분의 초기의 프로그램들이 주제로 하는 대상에 대한 지식이 거의 없기 때문에 발생한다 ; 그것들은 단순한 문법적 조작에 의해서 성공했던 것이다. 그 전형적인 예가 초기의 기계번역 (Machine Translation) 에서 발생하게 되는데, 그것은 1957 년에 러시아의 Sputnik 호의 발사에 자극받아 러시아의 과학 논문의 번역을 빠르게 하기위해서 미국 National Research Council 이 재정지원을 한 것이었다. 처음에는 러시아어와 영어의 문법에 기초한 단순 문법 전환과 전자사전을 이용한 단어의 대체만으로 정확한 문장의 의미가 충분히 보전되리라고 생각되었다. 그러나 번역을 하기 위해서는 언어의 애매모호성을 해결하고 문장의 내용을 파악하기 위해 주제로 하는 대상에 대한 일반적인 지식이 필요한 것이 사실이었다. 유명한 재번역 (re-translation) 의 예로써 "The spirit is willing but the flesh is weak (마음은 그렇지 않으나 육신이 약하도다 : 마태복음의 한 구절 : 마음과는 달리 쉽게 유혹을 뿌리칠 수 없다는 뜻) " 를 " The vodka is good but the meat is rotten (보드카는 좋지만 고기는 상하였다)" 으로 번역한 것은 마주치게 되는 어려움을 잘 보여준다. 1966 년에 자문위원회에서는 "일반적인 과학 텍스트를 기계번역하는 것은 있을 수 없으며 즉시 사용할 수 있는 전망이 없다" 는 보고서를 냈다. 학문적인 번역 프로젝트에 대한 정부차원의 재정 지원이 모두 취소되었다. 오늘날에는 기계번역은 불완전하기는 하지만 기술, 상업, 정부, 인터넷 문서용으로 널리 사용되는 툴이다.

두 번째 어려움은 AI 로 풀려고 하는 많은 문제들의 다루기 힘든 (intractability) 성격이다. 초기의 많은 AI 프로그램들은 해법이 발견될 때 까지 여러 단계의 조합을 시도해 봄으로써 문제를 해결했다. 이러한 전략은 초기에는 가능했는데 그 이유는 microworlds 가 매우 적은수의 물체와 매우 적은 수의 가능한 행동 그리고 매우 짧은 해결순서 만을 포함하기 때문이다. 계산 복잡도 이론 (Computational Complexity Theory) 이 개발되기 전에는 더 큰 문제로의 "확대 (scaling up)" 은 단순하게 더 빠른 하드웨어와 더 큰 메모리로써 해결된다는 생각이 퍼져있었다. resolution theorem proving 의 개발에 따른 낙관주의는, 예를들면, 단지 몇 다스 (dozen) 이상의 사실들을 포함하는 정리를 증명하는데도 실패하면서 곧 한풀 꺽이게 되었다. 어떤 프로그램이 원칙적으로 (in principle) 하나의 해법을 찾을 수 있다는 사실이 그 프로그램이 실제로 (in practice) 해법을 찾는데 필요로 되는 어떤 메카니즘을 포함한다는 것을 의미하지는 않는다.

무제한의 계산 능력에 대한 환상은 problem-solving 프로그램에만 국한되는 것은 아니었다. 기계진화 (machine evolution, 지금은 유전알고리즘 (Genetic Algorithm) 이라 불리운다) 에 관한 초기의 실험은 (Friedberg 1958 ; Friedberg et al 1959) 머신 코드 프로그램에 적절한 일련의 작은 돌연변이 (mutation) 를 생성함으로써 특별한 작은 작업에 대해 좋은 성능을 가진 프로그램을 생성할 수 있다는 의심할바없이 정확한 믿음에 기초한 것이었다. 그때 그 아이디어는 유용한 것으로 여겨지는 돌연변이를 보존하기 위한 선택과정 (selection) 과 함께 임의의 돌연변이를 시도한 것이었다. 수천 시간의 CPU time 에도 불구하고 거의 어떠한 진전도 보여주지 못하였다. 현대의 genetic algorithm 은 더 좋은 표현을 사용하고 더 많은 성공 사례를 보여준다.

combinatorial explosion 과의 씨름에서 실패한 것은 Lighthill 보고서 (Lighthill, 1973) 에 포함된 AI 에 대한 주요한 비판거리의 하나였다. 그 보고서는 2 대학을 제외한 모든 대학에서의 AI 연구에 대한 영국 정부의 지원을 중단하도록 결정하는 기초가 되었다. (구전으로 전해오기는 논점에서 벗어나는 이야기로서, 정치적인 야망과 개인적인 악의로 인해 중단되었다고 다소 채색되어서 전해진다)

세 번째 어려움은 지능적인 행동을 생성하기 위해 사용되는 기본적 구조에서의 근본적인 한계 때문이다. 예를들면 Minsky 와 Seymour Papert 의 책 Perceptrons (1969) 에서는 비록 perceptron (신경망의 간단한 형태) 이 스스로 표현할 수 있었던 어떤 것을 학습할 수 있는 것처럼 보이지만 실제로는 거의 표현할 수 없다는 것을 증명했다. 특히 two-input perceptron 에서 그들의 두 개의 입력이 다르다는 것을 인식하도록 훈련시킬 수가 없었다. 비록 이러한 결과들이 더 복잡한, 다층 네트워크에서 응용하지는 않았지만 신경망 연구에 대한 재정 지원이 급격히 줄어들어 거의 없어지게 되었다. 아이러니하게도 1980 연대 말에 신경망 연구의 광범위한 부활의 원인이 된 다층신경망을 위한 새로운 역전파 (Back-propagation) 학습 알고리즘은 실제로는 1969 년 (Bryson and Ho, 1969) 에 처음 발견되었다.

지식 베이스 시스템 : 핵심 파워? (1969 ~1979)

AI 연구의 처음 10 년동안에 발생한 문제해결의 그림은, 완전한 해법을 찾기위해서 기본적인 추론 단계들을 서로 이어지게 하려는 일종의 general-purpose search mechanism 이었다. 그러한 접근방법을 불충분한 방법 (weak methods) 라고 부르는데, 그 이유는 비록 일반적 (general) 이기는 했지만 더 크거나 어려운 문제의 경우로 확대 (scale up) 할 수는 없었기 때문이다. weak method 의 변형으로써 전문가의 좁은 영역에서 전형적으로 발생하는 경우 (cases)를 보다 더 쉽게 다루고 더 큰 추론단계를 허용하는 더 강력한 특수 영역의 (domain-specific) 지식을 사용하는 것이다. 그래서 누군가 어려운 문제를 해결하려 한다면 그 지식을 사용하여 이미 그 대답을 알고 있어야만 효율적이다.

DENDRAL 프로그램 (Buchanan et al 1969) 은 이러한 접근방식의 초기 예이다. Stanford 에서 개발된 것으로서 Edward  Feigenbaum  (Herbert Simon 의 제자), Bruce Buchanan (컴퓨터 과학자로 전환한 철학자), Joshua Ledenberg (노벨상을 수상한 유전학자) 가 팀을 이루어 mass spectrometer 에서 얻은 정보를 가지고 분자 구조를 추론하는 문제를 해결하기 위한 것이다. 그 프로그램의 입력은 분자식 (예를들면 C6H13NO2 ) 과 전자 빔에 의해 쪼여졌을 때 생성된 분자의 다양한 fragments 의 질량을 보여주는 mass spectrum 으로 구성된다. 예를들면 mass spectrum 이 m=15 에서 피크에 이른다면 메칠 (CH3) fragment 의 질량과 같은 것이다.

그 프로그램의 원래의 버전은 그 분자식과 일치하는 모든 가능한 구조를 생성하고, 그리고 나서 mass spectrum 이 각각에 대하여 어떤지를 예측하고, 이것을 실제의 spectrum 과 비교한다. 예상되는 것처럼 이것은 decent-sized  분자들은 다루기가 힘들다. Dendral 연구자들은 분석 화학자들에게 자문을 구했고, 그 화학자들이 spectrum (분자내에서 common substructure 를 제안한) 에서 잘 알려진 peak 의 패턴을 찾아낸다는 것을 알게되었다. 예를들면 ketone (C=0) subgroup (무게가 28) 을 인식하기 위해서는 다음의 규칙을 사용한다.

그 분자가 하나의 특별한 substructure 를 포함한다는 것을 인식하게 되면 가능한 후보의 수가 크게 줄어든다. Dendral 이 강력한 이유는 다음과 같다

Dendral 의 중요성은 최초의성공적인 knowledge-intensive system 이라는 것이다 : 그것의 전문지식은 많은 수의 special-purpose rules 로부터 유도된다. 나중에 개발된 버전은 McCarthy 의 Advice Taker 의 주요 테마- 추론의 구성요소와 (rule 형태로 된) 지식의 명확한 구분 - 를 통합한 것이다.

이 분야에서 잊지 말아야 할 것은 Stanford 의 Feigenbaum 과 동료들이 Heuristic Programming Project (HPP) 를 시작해서 전문가시스템 (Expert System) 의 새로운 방법론을 인간의 다른 전문영역에 응용할 수 있는 범위를 연구하였다. 다음으로 주요한 연구가 의료 진단영역에서 이루어졌다. Feigenbaum, Buchanan 과 의사인 Edward Shortliffe 가 혈액 감염을 진단하는 MYCIN 을 개발했다. 약 450 개의 rule 을 사용하여 만들어진 MYCIN 은 왠만한 젊은 의사보다도 더 훌륭한 성능을 보였다. 그것은 두가지 면에서 DENDRAL 과 차이점이 있다. 첫째로 DENDRAL 의 rule 과는 달리 어떠한 general theoretical model 도 존재하지 않은채로 MYCIN rule 은 연역될 수 있었다. 즉 교과서, 다른 의사, 직접적인 임상 경험으로부터의 지식을 가진 전문가와 광범위한 인터뷰를 통해 rule 이 얻어졌다. 두 번째로 그 rule 은 의학지식과 관련된 불확실성을 반영해야만 했다. MYCIN 은 centainty factor (Chapter 13 참조) 라는 불확실성의 계산을 포함하였고, 그 당시에는 의사가 진단시에 증상에 따라 추정하는 방법에 잘 맞는 것으로 보였다.

전문영역의 지식의 중요성은 자연어 이해의 영역에서 명확했다. Winograd 의 자연어 이해를 위한 SHRDLU 시스템이 상당한 흥미를 유발하였지만 구문분석 (syntactic analysis) 에 대한 의존으로 인해 초기 기계번역 작업에서 발생했던 것과 같은 문제들을 야기했다. 그것이 언어의 애매성과 대명사의 참조 (pronoun reference) 를 이해할 수 있었지만 그것은 블록 세계와 같은 특수하게 설계된 영역이었기 때문에 가능한 것이었다. MIT 에서 Winograd 의 제자였던 Eugene Charniak 을 포함한 몇몇 연구자들은, 견고한 (robust) 언어이해는 세상에 대한 일반 지식과 그 지식을 사용하는 일반적인 방법을 필요로 한다고 주장하였다.

Yale 대학의 언어학자였다가 AI 연구자로 전환한 Roger Schank 는 이 점을 강조하면서 "구문론 이란 원래 없는 것이다 (There is no such things as syntax)" 라고 주장하여 많은 언어학자들을 놀라게 하였지만, 그로인해 유용한 토론이 시작되게 되었다. Schank 와 그의 제자들은 자연어 이해를 위한 일련의 프로그램들을 만들었다 (Schank and Abelson 1977 ; Wilensky 1978 ; Schank and Riesbeck 1981 ; Dyer 1983). 그러나 강조된 것은 언어 그 자체로서가 아니라 언어 이해를 위해 필요한 지식을 표현하고 추론하는 문제에 역점을 둔 것이다. 그 문제들은 판에 박은 듯이 반복되는 상황을 표현하는 것 (Cullingford 1981), 인간의 메모리 조직을 묘사하는 것 (Rieger 1976 ; Kolodner 1983), 계획들과 목적들을 이해하는 것 (Wilensky 1983) 등등을 포함한다.

실세계 문제들에 대한 응용이 증가하면서 동시에 실행가능한 지식표현 설계에 대한 요구도 증가하였다. 많은 수의 표현과 추론 언어들이 개발되었다. 어떤 것은 논리에 기반을 두었는데, 예를들면 유럽에서 대중화된 Prolog 와 미국에서의 PLANNER 계열이 그것이다. 한편으로는 Minsky 의 frames 이론 (1975) 을 따라서 더욱 구조화된 접근 방식을 취했는데, 어떤 객체와 사건 유형들에 대한 사실들을 모아서 그 유형들을 생물학의 분류법에서 유추한 커다란 분류계층 (taxonomic hierarchy) 에 재배열하는 방법을 적용했다.

AI 가 하나의 산업이 되다 (1980 ~ 현재까지)

최초로 상업적으로 성공한 전문가시스템은 Digital Equipment Corporation 에서 사용된 R1 이다 (McDermott 1982). 그 프로그램은 새로운 컴퓨터시스템을 주문하는 것을 도와주는 것이었다 ; 1986 년 까지 매년 약 4 천만 달러를 절감할 수 있었다. 1988 년 까지 DEC 의 AI 그룹은 40 개의 전문가시스템을 더 사용했다. Du Pont 에서는 500 개를 개발해서 100 개를 사용하며 매년 약 천만달러를 절감했다. 거의 모든 미국 메이저급 회사에서 자체 AI 그룹을 가지고 전문가시스템을 사용하거나 연구하였다.

1981 년에 일본에서는 Prolog 를 사용한 지능적 컴퓨터를 만드는 10 개년 계획이 "5 세대 (Fifth Generation)" 계획을 발표했다. 이에 자극받아 미국에서는 국가 경쟁력 확보를 위한 연구 컨소시움으로서 Microelectronics and Computer Technology Corporation (MCC) 를 만들었다. 두 경우 모두 AI 는 chip 설계와 human-interface 연구를 포함하는 주요한 파트였다. 그러나 MCC 나 5 세대 프로젝트의 AI 분야에서는 그들이 꿈꾸는 목적을 결코 이룰 수가 없었다. 영국에서는 Alvey 보고서가 과거 Lighthill 보고서에 의해 삭감되었던 재정지원을 회복하게 하였다. (주석 : 어려운 상황을 모면하기 위해, IKBS (Intelligent Knowledge-Based Systems) 라고 불리는 새로운 분야는 AI 가 공식적으로 취소되었기 때문에 고안되었다)

어쨌든 AI 산업은 1980 년의 몇백만 달러에서 1988 년의 수십억 달러까지 증가하는 붐을 이루었다. 그러나 "AI 의 겨울 (AI Winter)" 라고 불리는 기간이 왔을 때는 많은 회사들이 그들의 터무니 없었던 약속을 지키지 못해 고생했다.

신경망의 재등장 (1986 ~ 현재까지)

컴퓨터과학에서는 1970 연대말에 신경망분야를 포기했지만 다른 분야에서는 계속 작업이 이루어졌다. John Hopfield (1982) 같은 물리학자는 원자의 집합과 같이 node 의 집합을 처리하고, 통계적 mechanics 의 기술을 사용해서 저장장치를 분석하고 네트워크를 최적화 하였다. David Rumelhart 와 Geoff Hinton 같은 심리학자는 메모리의 신경망에 대한 연구를 계속했다. Chapter 20 에서 논의되는 것처럼, 1969 년 Bryson 과 Ho 가 최초로 발견한 back-propagation 학습 알고리즘이 1980 연대 중반에 최소한 4 개의 다른 그룹에 의해 재발명되었던 것은 커다란 충격이었다. 그 알고리즘은 컴퓨터과학과 심리학의 많은 학습 알고리즘에 응용되었으며, 그 모음집 Parallel Distributed Processing (Rumelhart and McClelland 1986) 에 연구 결과들이 널리 알려지게 되면서 큰 반향을 일으키게 된다.

지능시스템의 이른바 연결주의 (connectionist) 모델은 Newell 과 Simon 의 기호 모델 (symbolic model) 과 McCarthy 와 다른이들의 논리적 (logicist) 접근방식 같은 것과 직접적으로 경쟁관계인 것처럼 보일 수 있다 (Smolensky 1988). 어떤 면에서 인간이 기호를 조작하는 것은 명확하다. 사실 Terrence Deacon 의 책 The Symbolic Species (1997) 에서는 그것이 인간의 특징을 정의하는 것이라고 주장한다. 그러나 대부분의 열렬한 connectionist 들은 기호조작이 섬세한 인지모델에 있어서 진짜 중요한 역할을 하는지 의문을 갖는다. 이러한 질문은 여전히 의문으로 남아 있지만, 최근의 견해는 연결주의 와 기호적 접근방식은 상호 보완적이며 경쟁관계가 아니라는 것이다.

AI 가 하나의 과학이 되다 (1987 ~ 현재까지)

최근의 몇 년은 AI 에서 그 내용과 방법론의 혁명을 이루어 왔다 (어떤이들은 이러한 변화를 scruffies - 차라리 많은 아이디어를 생각해내고 프로그램을 작성하고 그리고나서 실행하는 것처럼 보이는지를 평가하는 사람들 -  에 대한 neats - AI 이론이 수학적 엄격함에 기반하여야 한다는 생각을 하는 사람들 - 의 승리라고 특징지운다. 두 접근방법은 중요한다. neatness 로 기우는 것은 그 분야가 안정과 성숙의 단계에 도달했다는 것을 함축한다. 그 안정이 새로운 scruffy 에 의해 붕괴될 것인지 하는 것은 또다른 질문이다). 새로운 어떤 것을 만들어내려 하기 보다는 기존의 이론에서 구축하려는 경우가 일반적이다. 즉 직관에 의존하기 보다는 엄격한 정리나 어려운 실험상의 증거에 따른 주장에 기초한 것, 장난감의 예보다는 실세계 응용에 상응하는 것을 보여주는 것이 일반적이다.

AI 는 제어이론 과 통계와 같은 기존 분야의 한계를 극복하기 위해 시작되었지만, 지금은 이러한 분야들을 오히려 포함한다. David McAllester 는 그것을 다음과 같이 표현했다.

방법론적인 측면에서,  AI 는 결국 엄격한 과학적 방법하에서 온 것이다. 가설이 받아들여지기 위해서는 엄격한 경험적인 실험에 충실해야 하며, 결과가 받아들여지기 위해서는 그 중요성이 통계적으로 분석되어야 한다 (Cohen 1995). 인터넷의 사용과 테스트 데이터와 코드의 공유 자료실을 통해 실험을 복사하는 것이 지금은 가능하다.

음성인식 분야가 그 패턴을 실증한다. 1970 연대에는 넓고 다양한 구조와 접근방식이 시도되었다. 그것들 대부분이 임시방편의 변경되기 쉬운 것이었고 그중에 단지 몇 개의 특별히 선택된 예들만 시범을 보였다. 최근 몇 년사이에 hidden Markov models (HMMs) 에 기초한 접근방식이 음성인식의 주요 방식이 되었다. HMMs 의 두가지 측면이 적절한 것이다. 첫째로 그것은 엄격한 수학이론에 기초한 것이다. 이것은 음성 연구자들이 다른 분야에서 수십년간 개발된 수학적 결과를 바탕으로 만들 수 있게 했다. 두 번째로 그것은 실제 음성 데이터의 많은 말뭉치 (corpus) 를 사용하여 훈련과정을 통해서 생성된다. 이것은 확실히 성능이 견고하고, 엄격한 blind test 에서 HMMs 모델이 점진적으로 그 성능을 증진시킬 수 있게 했다. 음성 기술과 필기체 문자인식의 관련분야는 이미 산업과 소비자의 응용에서 넓은 변화를 보여주고 있다.

신경망 또한 이러한 트렌드에 맞는다. 1980 연대의 신경망의 많은 작업들이 신경망으로 무엇을 할 수 있는지 와 어떻게 신경망이 "전통적인" 기술과는 다른지를 알려는 시도가 있어왔다. 방법론과 이론적 틀이 나아지면서, 신경망은 통계, 패턴인식, 기계학습 등의 기존 기술과 동등한 기술로 비교될 수 있고, 그중 가장 적절한 기술이 각각의 작품에 응용될 수 있다는 이해에 도달했다. 이러한 발달의 결과로서 소위 datamining 기술이 활기있는 새로운 산업으로 탄생하였다.

Judea Pearl (1988) 의 저서 Probabilistic Reasoning in Intelligent Systems 은 AI 에서 확률과 decision theory 를 새롭게 받아들이게 하였다. 그것은 Peter Cheeseman (1985) 이 논문 "In Defence of Probability" 에서 다시 관심을 불어일으킨 이후 나온 것이다. Bayesian network 형식은 불확실한 지식을 충분히 표현하고, 엄격하게 추론할 수 있게 하기위해 발명되었다. 이러한 접근방식은 1960 연대와 1970 연대의 확률추론 시스템의 많은 문제들을 극복하게 했다 ; 지금은 Bayesian network 이 불확실성 추론과 전문가시스템에서 AI 연구를 주도한다. 그것은 경험으로부터 학습할 수 있게 하고, 고전적인 AI 의 가장 좋은면과 신경망을 결합한다. Judea Pearl (1982a) 과 Eric Horvitz, David Heckerman (Horvitz and Heckerman 1986 ; Horvitz et al 1986) 의 작업은 표준적인 (normative) 전문가시스템에 대한 생각을 촉진했다 : 즉 그것은 decision theory 의 법칙에 따라 합리적으로 작동하며 굳이 인간 전문가가 사고하는 단계를 모방하려 하지 않는 것이었다. Windows 운영체제는 문제를 교정하기 위해 몇 개의 표준적인 전문가시스템을 포함하고 있다. Chapter 13 에서 16 까지는 이 영역을 다룬다.

비슷하게 조용한 혁명이 로봇공학, 컴퓨터비전, 지식표현에서 발생했다. 문제들과 그 복잡성에 대한 이해를 더 할 수 있게 되고, 더 좋아진 수학적 섬세함과 결합하면서, 실행가능한 research agenda 와 견고한 방법 (robust method) 으로 발전했다.

많은 경우에 형식화와 특성화 (formalization and specialization) 은 또한 분쇄 (fragmentation) 로 나아갔다 : vision 과 로봇공학 같은 주제들이 점차로 "주류 (mainstream)" AI work 로부터 분리되었다. 합리적인 에이전트 (rational agent) 설계를 위한 AI 통합이란 관점은 이러한 다른 분야들을 다시 통합시키는 것이다.

지능적 에이전트 (intelligent agents) 의 출현 (1995 ~ 현재까지)

AI 의 하위문제들을 해결하는데 진전이 있게 되면서 점차로 연구자들은 "전체 에이전트 (whole agent)" 를 다시 보기 시작했다. Allen Newell, John Laird, Paul Rosenbloom 의 SOAR (Newell 1990 ; Laird et al 1987) 은 complete agent 구조의 가장 유명한 예이다. 소위 그 situated movement 라는 것은 실제 환경에서 계속적인 sensory input 을 가진 에이전트의 활동을 이해하는 것을 목적으로 한다. 지능적 에이전트를 위해 가장 중요한 환경중의 하나는 인터넷이다. AI 시스템은 웹기반 어플리케이션에서 흔하게 되었고 "-bot" 이라는 접미사는 매일의 언어에서 사용되게 되었다. 더구나 AI 기술은 search engine, recommender systems, web site construction systems 같은 많은 인터넷 툴에 잠재해 있다.

본 책의 초판 (Ressell and Norvig 1995) 이외에도 다른 최근의 교과서들은 에이전트의 전망을 언급하고 있다 (Poole et al 1998 ; Nilsson 1998). complete agents 를 만들려고 할때 내리는 하나의 결론은, 이전에 분리된 AI 의 하위분야들이 이제는 그들의 성과를 서로 연결하여 다시 조직화 (reorganize) 시킬 필요성이 있다는 것이다. 특히 sensory system (vision, sonar, 음성인식 등등) 이 환경에 대해 완전히 믿을 만한 정보를 전달할 수는 없다는 것이 이제는 널리 이해되고 있다. 따라서 추론과 계획시스템 (reasoning and planning) 으로 불확실성을 다룰 수 있어야만 한다. 에이전트 전망에 대한 두 번째 중요한 결론은 AI 가 제어이론, 경제와 같은 에이전트를 다루는 다른 분야와 훨씬 더 밀접하게 contact 하게 되었다는 것이다.  

1.4   그 예술의 상태 (최신 AI 의 응용)

오늘날 AI 는 무엇을 할 수 있는가? 하위분야가 매우 많기 때문에 간략한 대답은 어렵다. 여기서 몇 개의 응용을 선보인다 ; 다른 것은 책의 본문에 소개된다.

Autonomous planning and scheduling : 지구에서 1 억 마일 떨어진 곳에서, Nasa 의 Remote Agent 프로그램은 최초로 자율계획 프로그램을 탑재하여 우주선의 작동 scheduling 을 통제한다 (Jonsson et al 2000). Remote Agent 는 땅위에서 이루어지는 어려운 목표를 위해 계획을 짜고, 그 계획이 실행되면서 우주선의 작동을 모니터하여 문제들을 감지하고, 진단하고, 복구하게 된다.

Game Playing : IBM 의 Deep Blue 는 공식적인 체스 시합에서 Garry Kasparov 를 3.5 대 2.5 로 격파하여 최초로 세계챔피언을 이긴 컴퓨터 프로그램이 되었다 (Goodman and Keene 1997). Kasparov 는 그와 대면하고 있는 "새로운 종류의 지능" 을 느꼈다고 말했다. Newsweek 는 그 시합을 "두뇌의 마지막 저항 (last stand)" 라고 묘사했다. IBM 의 주가총액은 180 억 달러까지 치솟았다.

Autonomous control : ALVINN 컴퓨터비전 시스템은 레이을 따라서 자동차를 운전할 수 있게 훈련시킨 것이다. 그것은 CMU 의 NAVLAB 에 있는 컴퓨터가 제어하는 minivan 으로서 미국을 가로질러 2850 마일을 여행하였으며 시간상으로 98 % 를 스스로 운행한 것이다. 나머지 2 % 를 인간이 대신하였는데 대개 굽은 도로등을 탈출하게 한 것이다. NAVLAB 는 비디오 카메라로 ALVINN 에게 도로의 영상을 전송하고, 이전의 훈련주행의 경험을 바탕으로 컴퓨터들이 최상의 운전 방향을 계산한다.

Diagnosis : 확률분석에 기초한 의료 진단 프로그램은 의학의 여러 분야에서 전문의사의 수준까지 수행할수 있게 되었다. Heckerman (1991) 은 임파절 병리의 핵심 전문가가 특별히 어려운 케이스의 진단을 프로그램이 하는 것을 조롱하는 경우를 묘사한다. 그 프로그램을 만든 사람은 그러한 진단을 한 이유를 컴퓨터에게 물어보라고 권유하였다. 그 프로그램은 그러한 결정을 내리는데 영향을 미친 주요한 factor 들을 지적하면서, 그 케이스에서 여러 증상들간의 미묘한 상호작용을 설명하였다. 결국 그 전문가는 그 프로그램을 인정하였다.

Logistics Planning (병참 계획) : 1991 년 걸프전쟁 동안에 미국은 수송을 위한 자동화된 병참 계획과 스케쥴링을 하기 위해 Dynamic Analysis and Replacing Tool, DART (Cross and Walker 1994) 를 배치했다. 이것은 한번에 50,000 의 차량, 트럭, 사람이 투입되는 것으로, 출발점, 목적지, 경로, 모든 요소들 사이의 분쟁해결 (conflict resolution) 등을 계산해 내야만 했다. AI planning 기술은 다른 방법으로는 수주일 걸리는 것을 수시간 내에 하나의 계획을 만들어 내게 했다. Defence Advanced Research Project Agency (DARPA) 는 이러한 단 하나의 어플리케이션이 DARPA 에서 AI 에 30 년간 투자한 비용을 보상하는 것이었다고 말했다.

Robotics : 많은 외과의사들이 지금은 미세수술 (microsurgery) 에서 로봇의 도움을 받는다. HipNav (DiGioia et al 1996) 은 컴퓨터비전 기술을 사용해서 환자의 신체 내부의 해부학적 구조를 3차원 모델로 만들어 내고, 대체할 보철물을 삽입하기 위해서 robotic control 을 사용하는 시스템이다.

언어이해와 문제해결 (Language understanding and problem solving) : PROVERB (Littman et al 1999) 은 대부분의 인간보다 crossword puzzle 을 더 잘 푸는 컴퓨터 프로그램이다. 그것은 가능한 단어공간의 제약들, 과거의 퍼즐에 대한 큰 데이터베이스, 사전을 포함한 많은 정보소스, 많은 영화와 배우들에 관한 온라인 데이터베이스 등을 사용한다. 예를들면 "Nice Story" 라는 단서로부터 "ETAGE" 라는 답을 하게 되는데, 그것은 데이터베이스에 단서/해결 쌍 (clue/solution pair) "Story in France/ETAGE" 를 포함하고 있고, "Nice X" 와 "X in France" 라는 패턴들이 가끔 같은 답을 가진다는 것을 인식하기 때문이다. 그 프로그램은 Nice 가 프랑스에 있는 도시라는 것을 모르지만 그 퍼즐을 해결할 수 있다.

이것들은 오늘날 존재하는 AI 시스템의 일부의 예이다. 이 책에서 소개하는 것은 마술도 아니고 과학소설도 아니며 과학, 공학, 수학일 뿐이다.

1.5   요약

이 장에서는 AI 를 정의하고, 발달한 문화적 배경을 살펴보았다. 중요한 포인트는 다음과 같다 :

도서목록과 역사적 노트

 AI 의 방법론 을 조사한 것으로는 Herb Simon (1981) 의 'The Science of the Artificial' 이 있는데, 그것은 복잡한 인공물과 관련된 연구 영역을 논의하고, AI 를 어떻게 과학과 수학으로 조망할 수 있는지를 설명한다. Cohen (1995) 은 AI 내에서의 실험적인 방법론에 대한 개요를 보여준다. Ford 와 Hayes (1995) 에서는 Turing Test 의 유용성에 대해 부정적인 (opinionated) 견해를 피력한다.  

John Haugeland (1985) 의 'Artificial Intelligence : The Very Idea' 는 AI 의 철학적이고 실제적인 문제들에 대한 재미있는 읽을 거리를 보여준다. 인지과학은 몇 개의 최신 텍스트에 (Johnson-Laird 1988 ; Stillings et al 1995 ; Thagad 1996) 그리고 'Encyclopedia of the Cognitive Sciences' (Wilson and Keil 1999) 에 잘 서술되어있다. Baker (1989) 는 현대 언어학의 구문론 (sytactic) 부분, 그리고 Chierchia 와 McConnell-Ginet (1990) 은 의미론 (semantics) 을 다룬다. Jurafsky 와 Martin (2000) 은 computational linguistics 를 다룬다.

초기의 AI 는 Feigenbaum 과 Feldman 의 'Computers and Thought (1963)', Minsky 의 'Semantic Information Processing (1968)', Donald Mitchie 가 편집한 'Machine Intelligence' 시리즈에 서술되어 있다. 많은 수의 영향력있는 문서들이 Webber 와 Nilsson (1981), Luger (1995) 에 의해 편집되어 (anthologized) 왔다. 신경망에 대한 초기의 저작들은 'Neurocomputing (Anderson and Rosenfeld 1988)' 에 모아져 있다. 'Encyclopedia of AI (Shapiro 1992)' 는 AI 에서의 거의 모든 주제에 대한 survey 기사들을 포함하고 있다. 이러한 기사들은 각 주제에 대한 연구 문헌으로의 좋은 안내자 역할을 한다.

가장 최근의 작업은 주요한 AI 학회의 초록에 나타난다 : 2 년마다 열리는 International Joint Conference on AI (IJCAI), 매년 열리는 European Conference on AI (ECAI), National Conference on AI 는 스폰서 기관 AAAI 로 더 유명하다. 일반 AI 의 주요한 저널은 'Artificial Intelligence', 'Computational Intelligence', 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'IEEE Intelligent Systems', 그리고 전자 'Journal of Artificial Intelligence Research' 이 있다. 또한 특정 영역에 헌신하는 많은 학회와 저널들이 있으며 적절한 Chapter 에서 언급한다. AI 의 주요한 전문 기관은 American Association for Artificial Intelligence (AAAI), ACM Special Interest Group in AI (SIGART), Society for Artificial Intelligence and Simulation for Behaviour (AISB) 등이 있다. AAAI 의 'AI Magazine' 은 많은 주제와 교육적인 기사를 게재하며, 웹사이트 aaai.org 는 뉴스와 배경이 되는 정보를 제공한다