1 사고실험
존 설(John Searle)이 튜링 테스트로는 기계의 인공지능 여부를 판정할 수 없다는 것을 논증하기 위해 고안한 사고실험.
어느 방에 중국어를 모르는 사람을 집어 넣고, 중국어로 된 질문 목록과 그에 대한 중국어 대답이 적힌 목록 및 필담 도구를 넣어 둔다. 중국인 심사관이 그 방 안으로 중국어 질문을 써서 넣는다면 안의 사람은 중국어를 전혀 할 줄 모르지만 목록을 따라 그에 대한 대답을 중국어로 써서 심사관에게 건네 줄 수 있다.
1.1 상세
밖의 사람의 입장에서는 안의 사람은 중국어를 할 줄 아는 것으로 보이지만 실제로 안의 사람은 중국어를 전혀 모르고, 질문 및 대답도 전혀 이해하지 못하는 상태이다. 즉 중국어로 문답을 완벽히 한다고 해도 안의 사람이 중국어를 진짜로 이해하는지는 알 수 없으며, 기계가 지능을 가졌는지 판단하는 튜링 테스트가 과연 진짜로 기계가 지능을 가지고 있는 것인지 아니면 단순히 저장된 답변을 하는 것인지는 알 수 없다는 주장이다. 비유하자면 응시자가 수학 문제를 풀 때 원리를 알고 푸는지 공식이랑 풀이과정을 외워서 푸는지 채점하는 사람 입장에서는 모른다는 이야기와 같다.
1.2 전개 및 반박
본래 튜링 테스트를 까기 위해 만들어 진 사고실험이지만, 이에 대한 수많은 반박들이(이를테면 중국어 방을 이루는 개개의 요소는 중국어를 이해하지 못하지만 중국어 방이라는 시스템은 중국어를 이해하고 있다는 것 등등. 미래학자 레이 커즈와일의 저서 《특이점이 온다》에 아주 상세하게 설명되어 있다. 존설의 중국어방 원문인 "마음, 뇌, 프로그램" 텍스트와 시스템 관점에서의 반박 중에서 좋은 설명이 《이런, 이게 바로 나야!》에 나와있다. 저자는 대니얼 데닛과 더글라스 호프스태터이다.) 오히려 튜링테스트에 대한 이론을 풍부하게 했다.
대표적인 반박은 시스템 논변이 있다. 만일 중국어 방에서 완벽한 중국어가 나온다면, 그 과정이 무엇이 되었든 간에 그것은 하나의 "시스템"이며, 곧 시스템 단위로 봤을 때는 중국어를 할 줄 안다고 봐야 한다는 것이다. 인간 뇌와 뉴런의 관계를 생각하면 된다. 개개의 뉴런은 "나" 라는 것에 대해서, 나아가 자기 자신이 누군지조차 모른다. 이 뉴런을 조금 더 확대해본다면, 매 순간마다 뉴런 내에서 벌어지는 수없이 많은 화학 반응은 전부 물리 법칙에 따라 벌어지는데, 화학 작용이 "나"라는 개념을 알고 있을 가능성은 당연히 없는 것이다. 하지만 뉴런과 뉴런 사이의 연결을 담당하는 시냅스의 집합인 인간의 뇌는 중국어를 알 수 있고 완벽한 중국어를 구사할 수 있다.
인류는 자기가 생각을 하면서도 도대체 자기 뇌가 뭐로 이루어졌는지조차 몇 만년을 모르고 지내왔다는 점을 상기하자. (심지어 '뇌'에서 생각이 나온단 것 조차도 몰랐다! 감정 반응과 관계있는 심장이 그 역할을 할 것이란 추측정도가 전부였다.) 하지만 여전히 사고의 역사는 나아간다. 그것은 자기 자신을 이해하지 않아도 된다. 왜냐면 인간이란 존재는 진화론적 '시스템'이며, 그 시스템이 해내는 일이 곧 인간의 행동이기 때문이다. 그러므로 설의 중국어 방은 하나의 시스템이며, 따라서 '중국어를 구사하는 시스템' 그 이상 그 이하도 아니다.
이것을 소재 중 하나로 다룬 블라인드 사이트라는 SF 소설이 있다.
1.2.1 반박에 대한 반박
시스템 논변은 논점에 접근조차 하지 못했다. 중국어 방의 논점은 시스템 자체의 출력이 아닌, 그 과정에 있다. 시스템 논변은 반박이 아닌, 우리가 과정은 모른다는 부정을 했다.
당장, 중국어 방의 사람은 학습되지 않은 말을 할 수 없다. 각 쪽지가 무슨 역할인 지 모르기 때문이다. 근데 시스템 논변은 가장 중요한 연관 추론 과정을, 무의식적으로 해낸다고 말했다. 그럼 중국어 방의 사람은 각 쪽지가 어떤 뜻인지도 모르고 연관을 추론해내야 한다. 이러한 상황은 상당한 모순이다. 또한 방 안의 사람은 기본적으로 기계와 대응하기 때문에[1], 추론 능력이 없다고 생각해야만 한다. 즉, 방 안에 있는 사람은 아무것도 이해하지 못해야만 한다. 추론 능력이 있는 사람 A와 추론 능력이 없는 기계 B에게 빨갛고 동그란 사과의 사진을 학습시킨다고 하자. 충분히 학습된 후, 이제는 한 입 베어 문 사과의 모양을 보여준다면, A는 기본적 추론으로 사과임을 추측할 것 이다. 하지만 B에게는 한 입 베어문 사과는 여태까지 없던 입력이다. 항상 외곽선은 원형이였으며, 노란 색은 거의 없었다. 그러므로 B는 사과가 아니라고 판단할 것 이다. 즉 중국어 방에 있는 사람은 기본적인 추론이 불가능하기 때문에[2], 예상치 못한 입력에 대처할 수 없다. 물론 어떤 사람이 '그건 B에게 정보가 부족했기 때문으로, B에게 새로운 판단 기준을 제시하면 된다.' 라고 반론을 할 수도 있다. 하지만 이것은 논점을 이해하지 못한 것이다. A는 판단기준을 스스로 완화하고 한 입 베어문 사과를 사과라고 판단했지만, B는 그것마저도 학습이 필요하다. 위의 시스템 설은 과정을 무시하고 결과만을 보기로 하였지만, 동시에 과정을 놓침으로써 결과에 차이가 생기게 된다. 즉, 중국어 방의 가장 큰 논점이며, 인공지능[3]과 기계학습[4] 간의 가장 큰 차이중 하나인 추론 능력을 무시하게 된다.
매우 단순하게 비유하자면, 수학 공식을 쓰는 법만 배운 A와 공식을 직접 유도한 B의 차이라 할 수 있다. A의 사고는 하나의 답으로 수렴하지만, B의 사고는 도중에 발산을 거쳐 수렴한다.
2 게임 제작사
파일:Attachment/The Chinese room/Example.jpg
영국의 인디 게임 제작사. 표기법이 굉장이 독특한 곳으로, 일반적으로는 thechineseroom이란 표기법을 사용하지만 정식 명칭은 The Chinese Room이다. 둘 다 공식적으로 사용하는 명칭. 이름에 걸맞게 이 개발사 멤버들 중 아시아인 내지 아시아계는 단 한명도 없고 전부 영국인 뿐이다.