이미테이션 뜻 짝퉁 영어로, 노이즈 캔슬링 뜻, 빌트인 뜻 (TIME 영어잡지)
페이지 정보
작성자 Catherine 댓글 0건 조회 5회 작성일 25-08-27 06:55본문
번역: 이미테이션뜻 한동훈 madrabbit7@네이방닷캼역자의 말:튜링 테스트는 기계가 인간 수준의 지능을 가졌는지를 판단하기 위한 테스트로, 처음 제안된 1950대 이후로 오랜 세월이 흐르며 그 의미가 퇴색되고 한계가 드러나기 시작했다. 컴퓨터와 그 프로그램이 발전하면서 튜링 테스트를 통과하는 경우가 늘어났기 때문이다. 그 채팅 프로그램들이 과연 인간 수준의 지능을 지니고 있는 것일까? 그것에 대한 회의와 비판이 거세게 일어나자 이 논문 작가가 그것은 튜링 테스트에 대한 오해에서 비롯된다고 자세하게 논의하고 있다. 이 논문 제목을 친근하게 바꿔본다면 '다시 보자 튜링 테스트!' 정도 될 것이다. 참고가 될 사진이나 글들을 찾아서 역주로 달아놓았다. DeepL과 구글 번역기를 통해 초벌 번역을 해서 그것을 수정하면서 번역한 것인데 최근 2~3년 동안 번역기들의 성능이 머신러닝의 심층 강화학습을 통해 아주 좋아졌다. 10년간 소설 번역을 주로 했던 입장에서 번역기 성능을 필자는 이렇게 본다. DeepL (4.5/10)>구글 번역기(4/10) >네이버 파파고(3.5/10)... 영한 번역 기준으로... 실전에서 쓸만한 초벌 번역 수준을 10점 만점에 5점(5/10)으로 볼 때 번역기들의 점수를 그렇게 평가한다는 것이다. 근데 존댓말(~습니다)이 아닌 반말(~이다) 식으로 번역해주는 번역기 어디 없나? 아주 미쳐겠다.사실 위의 영어 제목 Turing’s much misunderstood imitation game을 번역기로 돌리면 '모방 게임에 대한 튜링의 오해'인데 정작 Turning's가 수식하는 것은 imitation game이고 misunderstand를 하는 것은 세간의 평론가들을 발하는데, 이런 번역기 초벌 번역은 아주 꼼꼼히 감수해야 한다. 내용을 아주 거꾸로 번역하는 경우가 이번에 여러 번 있었다. 어떤 경우에는 DeepL보다 구글 번역이 나은 경우가 더러 있었다. 내가 한 번역들은 필자의 공부와 약간의 정보 제공을 위한 것이지 출판할 정도의 수준으로 꼼꼼히 번역한 것은 아니다. 초벌 번역 문장이 의미가 통하면 그냥 사용한 경우도 잦다. '*' 표기를 하고 쓴 것은 역주다.----의인화와 인공지능: 튜링의 모방(이미테이션) 게임에 대한 세간의 오해Anthropomorphism and AI: Turing’s much misunderstood imitation gameDiane Proudfoot, 2011인공지능 세계에서도 기계를 의인화하려는 경향이 널리 퍼져 있기 때문에 의인화된 기계가 지능을 가졌으리라 쉽게 확신하는 경향이 있다. 인공지능 연구자가 환상에 쉽게 굴복한다면 기계의 지능을 입증하는 추정을 사람들이 어떻게 신뢰할 수 있을까? 나는 이를 의인화의 법의학적 문제라고 부른다. 나는 튜링 테스트가 해결책을 제공한다고 주장한다. 이 논문은 의인화가 잘못 채택되는 현상을 설명하고 튜링의 모방 게임에 대한 새로운 관점을 제시한다. 또한 인간 수준의 인공지능과 '마음 없는 지능' 사이의 현재 논쟁과 관련하여 튜링 테스트의 역할에 대해 살펴본다.키워드: 튜링 테스트(Turing test), 의인화(Anthropomorphism), 인간 수준의 인공지능(Human-level AI), 마음 없는 지능(Mindless intelligence)1. 소개인공지능 분야에서 근본적인 논쟁이 다시 살아나고 있다. 몇몇 컴퓨터 과학자들은 인간 수준의 인공 지능, 즉 '인공 일반 지능'(AGI)을 다시 한 번 핵심적이고 달성 가능한 목표로 간주하고 있다. 컨퍼런스와 워크숍들에서 다시 인간 수준 인공지능과 일반 인공지능에 초점을 맞추고 있다. 최근 ‘아티피셜 인텔리전스(Artificial Intelligence)’에 실린 기사에서 존 맥카시는 '인간 수준 인공지능은 달성될 것이다. 21세기에 실현될 것이다'고 말했다. 그러나 이 분야의 일부 사람들은 '인간 수준' AI를 잘못 정의된 목표로 보고 있으며, 다른 사람들은 이를 명시적으로 반대하고 있다. 최근 조던 폴락(Jordan Pollack)은 'AI의 가장 큰 실수는 인간 수준 지능이 현존하는 최고의 지능이라고 가정하는 것'이라고 주장하며, AI가 '마음(정신) 없는 지능(mindless intelligence)'에 집중할 것을 촉구했다.인간 수준(또는 인간과 유사한) 지능에 초점을 맞추는 AI에 대해 비판하는 사람들은 일반적으로 튜링 테스트를 비난한다. 예를 들어보자.튜링 테스트는 다른 종과 공유되지 않기에, 유용한 일반화를 허용하지 않는 인간 행동의 그러한 측면에 다수 AI 연구의 초점을 맞추는 역할을 했다... 튜링 테스트 비전의 영향은 AI에 비극이다…‘전산 기계와 지능’은 AI를 막다른 골목으로 몰아넣었다... 모방 게임에서 성공하기 위해 필요한 인간 능력의 모방에 미래의 AI 연구를 집중한다면, 정작 ‘지적 도구’가 필요한 마당에 사실상 ‘지적 우상’을 만드는 것이나 마찬가지다. 튜링의 모방 게임은 '사실상 쓸모없다', '한물갔다', '발기불능이다(impotent)'고 묘사되어 왔으며, (아마도) 모방 게임을 잘하는 기계는 인공지능 연구의 막다른 골목으로 묘사되었다.반대론자들은 ‘튜링의 비전에 집착하는 것은 ...실제로 해롭다', '튜링의 유산은 성숙한 하위 분야를 소외시킨다'고 주장한다. 다수에게 교훈은 분명하다. 튜링 테스트는 과학의 역사 속으로 사라져야 한다... 튜링 테스트는 인간의 능력을 모방하는 데 초점을 맞추었기 때문에 인공지능의 올바른 목표와 직접적으로 상충한다.일부 이론가들은 튜링이 테스트를 제안할 의도가 전혀 없었다고 주장한다. 예를 들어, 아론 슬로먼(Aaron Sloman)은 튜링이 '그런 일을 하기에는 너무 똑똑했다'고 주장하며, '전산 기계 및 지능'에 대한 광범위한 오해로 인해 순전히 '신화적인' 튜링 테스트를 논의하는 데 '엄청난 양의 노력 낭비'가 발생했다고 주장한다. 슬로먼에 따르면 튜링은 '사고나 지능에 이미테이션뜻 대한 기준을 제시하기 위해서' 모방 게임을 도입한 것이 아니라 컴퓨터가 게임에서 성공할 가능성을 반대하는 ‘주장을 공격하기 위한 근거’를 제공하기 위해서였다.(미주11)미주11. 슬로먼의 ‘The Mythical Turing Test신화적인 튜링 테스트’ 논문에서. 슬로만은 “튜링은 기계가 생각할 수 있는지 또는 기계가 지능적인지 하는 질문에 대한 대답으로 테스트를 고안하기는커녕 그 질문이 터무니없다고 (올바르게) 판단했다'고 말한다. 그러나 튜링이 '터무니없다'고 말하는 것은 '갤럽 여론조사와 같은 통계적 조사'를 통해 이 질문에 답하려는 모든 시도를 의미한다.(‘Computing Machinery and Intelligence컴퓨팅 기계와 지능’, Mind, vol. 59, 1950, p. 433). 그럼에도 불구하고 '기계가 생각할 수 있는가'라는 질문에 대해 '너무 무의미해서 논의할 가치가 없다'(같은 책, 442쪽)는 그의 악명 높은 발언에도 불구하고 튜링은 이 질문에 대해 상세히 논의했다. 그는 1950년 논문에서 이에 대해 논의했다(거기서 그는 마침내, '모방 게임을 잘할 수 있는 디지털 컴퓨터를 우리가 상상해낼 수 있나?’라는 질문은 '기계가 생각할 수 있나?’(442쪽)라는 질문의 변종이다’고 말했다). 그리고 라디오 방송에서도 그 문제를 논의했다. '디지털 컴퓨터가 생각할 수 있나?’(알랜 튜링, 1951, ‘Can Digital Computers Think?디지털 컴퓨터가 생각할 수 있는가?’ , B.J. Copeland ed., 2004) 그리고 ‘자동 계산 기계가 생각한다고 말할 수 있나?’ (알랜 튜링, R. Braithwaite, G. Jefferson, and M. Newman, 1952, in B.J. Copeland ed., 2004)에서 논의했다. 가령 첫 번째 방송에서 튜링은 '생각하는 기계를 프로그래밍 하는 것'과 '사고 기계(a thinking machine)를 만들려는 시도’에 대해 이야기했다. 그리고 그는 '기계가 생각하도록 만들 수 있다는 이론'에 찬성한다는 뜻을 분명히 밝혔다(485-486쪽).그러나 튜링은 자신이 기계의 지능 테스트를 제안하고 있다는 점을 분명히 했다. 그가 1950년에 발표한 유명한 논문에서 그는 모방 게임을 '테스트'로서 '사고'에 대한 '기준'을 제공한다고 언급했다(심지어 그의 적수인 제프리 제퍼슨(Jefferson probably)조차 모방 게임을 '테스트'로 받아들일 것이라고 튜링은 말했다). 1952년 라디오 방송 '자동 계산 기계가 사고한다고 말할 수 있는가'에서 튜링은 '기계에 적용할 수 있는 특정한 종류의 테스트를 제안하고 싶다'고 말했다. 그는 모방 게임을 계속 설명했다.이것이 내 테스트입니다. 물론 현재로서는 기계가 실제로 이 테스트를 통과할 수 있다거나 통과하지 못할 것이라고 말하는 것은 아닙니다. 내가 제안하는 것은 이것이 우리가 논의해야 할 문제라는 것입니다. '기계가 생각하는가'와 같은 질문은 아니지만, 현재 우리의 목적에 충분히 근접한 질문이며 거의 동일한 의문을 제기합니다.또한 튜링은 슬로먼의 주장처럼 기계 지능에 대한 기술적 예측이나 반론을 반박하기 위해서가 아니라 지능에 대한 자신의 접근 방식을 설명하기 위해 모방 게임을 도입했다는 점을 분명히 했다. 튜링은 1948년 국립 물리 연구소에 제출한 보고서인 '지능형 기계(Intelligent Machinery)'에서 컴퓨터가 인간을 모방하는 게임을 이렇게 설명했다. 우리가 ‘어떤 것을 지능적인 방식으로 행동하는 것으로 간주하는 정도는, 고려 대상의 속성만큼이나 우리 자신의 마음 상태와 훈련에 의해 결정된다'는 그의 논문에 근거한 '작은 실험'(실제로 수행했다고 그는 말했다)이었다.나는 튜링의 테스트가 흥미로운 사고 실험이나 먼 미래의 과학적 목표의 일부로서가 아니라 오늘날 인공지능에 상당히 중요하다고 주장할 것이다. 인간 수준 인공지능과 마음 없는 지능을 모두 옹호하는 사람들은 이런 질문에 직면할 것이다. 기계의 지능을 어떻게 테스트할 수 있을까?* 둘 다 인공 시스템을 의인화하려는 인간의 경향에서 비롯되는 어려운 문제에 직면해 있다. 이러한 경향으로 인해 인간 수준이든 아니든 기계의 지능을 우리에게 확신시키기가 너무 쉽다. 튜링은 이 문제를 해결하기 위해 기계의 지능을 테스트하는 방법을 제시한 것이다.2. 인공지능의 의인화컴퓨터 과학자들은 종종 대중이 지능형 안드로이드가 언젠가 등장할 것이라 기대한다고 불평한다. 하지만 공상 과학 소설과 환상(make-believe)는 인공지능의 아주 이른 단계에서도 발견할 수 있다. 튜링은 자신의 '어린 기계'를 헬렌 켈러에 비유하며, 이 기계는 '다른 아이들이 지나치게 놀려대지 않고는 학교에 보낼 수 없다'고 말했다. 그러나 그것은 '숙제'를 가질 것이고, 그는 '기계의 교육은 고도로 유능한 교사에게 맡겨야 한다'고 제안했다. 튜링은 자신의 조직화되지 않은 'P형' 기계*(테이프가 없고 ‘고통’과 ‘기쁨’의 입력이 있는, 개조한 튜링 머신)에 대해 논의했다. 이는 종이와 연필을 사용해 인간이 기계의 행동을 시뮬레이션하는 '종이 기계'로만 존재했지만 튜링은 이를 의인화했다.* P형 기계 작동 순서도 (P type machine functional flow chart)1. 동시 실행하는 부분은 여기에 없다. 데이터는 세상을 관통해 지나간다. 위쪽과 아래쪽 점선을 보라.2. 위쪽 경로는 변환기의 이행에 의해 구동되는 경로라는 특징이 있다.3. 아래쪽 경로는 무작위 시행착오 학습에 의해 구동되는 경로라는 특징이 있다.(역주: 간단히 설명하자면, 세상으로부터의 입력(어떤 자극이나 일)을 처리하는 방식인데 그 일을 변환기에 넣어서 ‘고통pain’이 나오면 처리가 유보되고, ‘즐거움pleasure’이 나오면 그 일을 처리한 것으로 여긴다. 즉 이미테이션뜻 고통을 피하고 즐거움을 추구하는 방식을 순서도로 나타낸 것이다. 처리할 일이 더 이상 없다면 무작위로 아무 일이나 선택해서 그 일을 처리한다. 이것은 ‘무작위 시행착오’를 통해 우리가 배우는 방식을 나타낸다. 가령 어린 시절에 몹시 심심해서 물가로 놀러 가거나 뒷산을 넘어 가거나, 어디 먼 곳으로 가서 가벼운 모험을 하거나, 새로운 장난감을 가지고 놀거나 했던 예를 들 수 있겠다. 이때에도 그 행위의 결과로서 ‘고통’이나 ‘즐거움’을 감각하게 되는데 고통을 주는 일(기분 나쁜 일)은 회피하고 즐거움을 주는 일(기분 좋은 일)을 본능적으로 추구하게 된다.)그림. 브라텐버그의 로봇 차량.의인화의 대표적인 사례로는 발렌티노 브라텐버그(Valentino Braitenberg)의 로봇 차량에 대한 설명도 있다. 이 기계들은 꿈을 꾸고, 몽유병에 걸리고, 자유 의지가 있으며, '결정에 대해 숙고'하고, '호기심’이 있고, '낙관적’이고, '친절’하다고 합니다. 심지어 '2차원 공간에 대한 선험적 개념(* 경험 이전에 아는 개념)'도 가지고 있다고 합니다. 데이비드 호그, 프레드 마틴, 미첼 레스닉은 브라이튼버그와 같은 '생물체'(전자 회로가 포함된 레고 블록으로 제작된 물체)에 '소심Timid', '우유부단Indecisive', '편집증Paranoid', '불안정Insecure', '비인간Inhumane' 등의 이름을 붙였다. ‘미친놈Frantic’과 ‘관망자Observant’는 철학적이라고 한다. ‘미친놈’은 할 줄 아는 게 생각밖에 없다. 마사키 야마모토도 자신의 로봇 청소기 소지(SOZZY)를 '친근'하고 '기쁨, 절망, 피로, 슬픔 등 네 가지 감정'을 가진 것으로 묘사했다. 대니엘 데닛은 코그(Cog)가 '유아기와 어린 시절'을 갖고 있으며 '엄마의 얼굴을 계속 보고 싶어하도록' 설계될 것이라고 말했다. (사진들: 1995~2001년에 MIT에서 개발한 Cog 로봇. 데닛Dennett은 과학철학적 조언자로서 그 개발과정에 참여했다.)코그는 어떻게든 학습을 즐기고, 오류를 혐오하며, 새로움을 위해 노력하고, 진보를 인식해야 한다. 어떤 면에서는 경계심이 강하고, 어떤 면에서는 호기심이 많으며, 자기 파괴적인 활동에는 깊이 관여하지 않으려는 성향이 있어야 한다. 이왕이면 인간의 칭찬과 교제를 갈망하고 유머 감각을 발휘할 수 있도록 만들어야 한다. 코그(특히 '얼굴'형 로봇)와 같은 사회적 로봇을 개발하는 연구자들은 종종 의인화를 피하려고 노력한다. 가령 얼굴 로봇의 '감정' 체계를 설명할 때 따옴표나 기타 표기법을 사용하거나, 로봇이 인간 감정과 비슷한 것을 가지고 있을 뿐이라고 주장한다. 이러한 경우 일반적으로 로봇이 '실제' 또는 인간의 감정을 가지고 있다는 것을 부인한다. 로봇이 '진짜 감정'이나 인간의 감정을 가지고 있다는 것을 그들은 부정한다. (이러한 부정은 '감정'에 대한 정의를 전제할 필요는 없다. 유명한 예를 들자면, 축구는 게임이고 피부과 치료는 게임이 아니라고 말할 때 '게임'에 대한 정의가 필요하지 않다. 반드시 실물을 제시해야 할 필요는 없다. 대신 프로토타입과 예시를 사용하면 된다. 마찬가지로, '감정'에 대한 정의가 없어도 여러분에게는 감정이 있고 로봇 청소기 소지(SOZZY)에는 감정이 없다고 말할 수 있다.)그럼에도 불구하고 로봇에 감정이 있다는 사실을 부정하는 연구자들은 말 그대로 (사람의) 표정 행동을 아무런 검증 없이(without qualification, 즉 깊은 고려 없이) 기계에 부여했고, 이런 식으로 자신도 모르는 새에 로봇을 의인화했다. 예를 들어, 키스멧(Kismet)은 '그 얼굴에 미소를 짓고', '얼굴을 찡그리고', '행복하고 흥미로운 표정'과 '슬픈 표정'을 짓는다고 한다(인용부호 없이 말이다). 키스멧은 또한 장난감을 '쳐다본다', '다른 방향을 바라본다', '그 사람의 얼굴에 시선을 고정한다'고 한다.(사진. Kismet은 1990년대에 MIT의 신시아 브리질(Cynthia Breazeal) 박사가 감성 컴퓨팅 실험으로 만든 로봇 머리다. 감정을 인식하고 시뮬레이션할 수 있는 기계다.)이는 단순히 로봇이 특정 신체 구성이나 행동을 가지고 있다고 주장하는 것이 아니다. 예를 들어 미소는 복잡한 전형적 제스처다. 미소는 특정한 의미, 즉 미소를 인간의 찡그린 얼굴이나 얼굴 틱과 구별하고 침팬지의 이빨을 드러내는 것과 구별하는 의미가 있을 때만 미소라고 할 수 있다. 마찬가지로 키스멧이 ‘행복한 표정’을 짓는다라고 하지 않고 (따옴표 없이) 행복한 표정을 짓는다고 하는 것은 로봇의 ‘얼굴’ 표정의 의미가 단순히 '행복'이 아니라 행복이라고 주장하는 것이다(* 따옴표를 사용해 ‘행복한 표정’이라고 한다면 사람의 행복한 표정과는 다를 수 있는, 유사한 어떤 것을 의미할 수 있는 반면에 따옴표 없이 그냥 사용하면 사람의 행복한 표정 그 자체를 의미할 수 있기 때문에 의인화의 위험성을 그대로 가져온다는 것이다). 키스멧이 미소 짓고 찡그린다고 말하면서(단순히 이모티콘이나 사진처럼 미소나 찡그린 표정을 얼굴 표정이라고 말하는 것과는 달리) 키스멧의 제작자는 로봇이 특정한 의사 소통 의도, 즉 미소 짓는 생명체, 즉 인간이 가진 의도를 가지고 있다고 주장한다.1970년대에 드류 맥더못(Drew McDermott)은 프로그램과 데이터 구조를 언급하기 위해 '희망 니모닉*'을 사용하는 것을 조롱했다. 그는 인공지능 프로그래머가,프로그램의 메인 루프를 ‘UNDERSTAND’(이해)라고 지칭하는 것은 (무죄가 입증되기 전까지는) 그저 구걸하는 것에 불과하다고 말했다. 그는 많은 사람들을 오도할 수 있으며, 특히 자신을 포함하여 많은 사람들을 분노케 할 수 있다. 대신 그가 해야 할 이미테이션뜻 일은 이 메인 루프를 ‘G0034’라고 칭하고, G0034가 이해의 일부를 구현한다고 자신이나 다른 사람을 설득할 수 있는지 확인하는 것이다. * wishful mnemonics: 니모닉(기억술)은 정보의 기억을 위한 방법으로, 특히 숫자의 나열처럼 직관적인 관계가 없어 외우기 어려운 정보에 다른 정보를 연결하여 외우기 쉽도록 하는 데 쓰인다. 여기서 wishful mnemonics는 이 기억술에 프로그래머 개인의 희망을 덧붙인다는 뜻으로, 난해하기 짝이 없는 인공지능 메인루프에 ‘UNDERSTAND’(이해됨=파악했음)라는 이름을 붙이는 것은 희망 착각이라는 뜻이다. 마치 짝사랑하는 이성을 자신의 연인이라고 주변에 알리는 ‘희망 착각’은 본인에게나 관련자들에게나 바람직하지 못하며, 차라리 그 이성에게 현실적인 방법으로 접근하는 것이 본인에게도 좋을 것이라는 비유를 들 수 있겠다.맥더못의 목표는 희망적인 니모닉의 사용을 없애는 것이었다. 그는 '우리가 조금이라도 신뢰를 유지하려면 이런 일은 그만둬야 한다'고 말했다. 그는 '훈련된' 인공지능 연구자에게 '무색무취한’ 또는 '위생 처리된(살균된sanitized)' 용어, 즉 '겸손한(변변치 않은)', 기술적 의미를 가진 용어를 사용하라고 권고했다.하지만 인공지능의 의인화는 희망적인 니모닉을 훨씬 뛰어넘었다. 위에 주어진 예 중 일부는 니모닉으로 볼 수 있다. 예를 들어 튜링의 '고통' 또는 '처벌' 신호는 '취소' 명령(P형의 머신 테이블에 잠정적으로 입력된 항목을 취소하는 명령어)이라고 볼 수 있다. 대조적으로 브라이텐베르크(Braitenberg) 기계가 '2차원 공간에 대한 선험적 개념'을 가지고 있다는 주장은 이런 식으로 빠져나갈 수 없다. 마찬가지로, 인공지능에서 의인화의 일부 사례는 맥더못의 지적처럼 의문을 불러일으키지만, 다른 사례는 다른 문제를 야기한다. 로봇 청소기 소지를 ‘친절하다’고 묘사하는 것은 논점 회피가 아니라 명백히 거짓된 주장, 환상적인 주장을 하는 것이다.(미주 30)미주30: 인공지능에서 명백히 잘못된 설명의 또 다른 예는 기계를 지칭하기 위해 인칭대명사('그' 및 '그녀')를 사용하는 것이다. 최근의 사례는 E.S. 브루넷(Brunette), R.C. 플레머(Flemmer) 및 C.L. Flemmer의 다음 문서에서다. ‘A review of artificial intelligence인공 지능에 대한 검토’, ICARA 2009 -제4회 자율 로봇 및 에이전트에 관한 국제 컨퍼런스 논문집, 2009, IEEE. SP. 프랭클린은 로봇과 소프트웨어 에이전트뿐만 아니라 프로세서와 컴퓨터 모델을 지칭하기 위해 인칭대명사를 사용하기도 한다(Artificial Minds인공의식, Bradford Books, 1995).맥더못은 인공지능 연구원이 심리적 용어를 사용하기 전에 그들의 프로그램이 심리적 속성을 구현하고 있음을 입증할 것을 요구한다. 그러나 연구원이 예를 들어 로봇 진공 청소기에 기쁨을 부여하는 것처럼 의인화 및 가정에 쉽게 굴복한다면 기계의 지능에 대해 '자신이나 다른 사람을 확신시키려는' 연구원의 노력을 어떻게 신뢰할 수 있을까? 이것은 의인화의 법의학 문제다. 이것은 육체적인 것과 정신적인 것 사이의 관계에 대한 전통적인 형이상학적 문제도 아니고, 우리가 인공 행위자를 어떻게 다루어야 하는지에 대한 윤리적 질문도 아니다. 인간이 예외적이라고 가정하지도 않는다. 그리고 이것은 맥더못이 식별한 것과는 다른 문제를 제기한다.의인화의 법의학적인 문제점은 다음과 같다. 의인화는 기계의 지능 판단에 (기계에 유리한) 편견을 도입할 위험이 있다는 것이다. 의인화의 법의학 문제는 다음과 같다. 의인화는 기계의 지능 판단에 (기계에 유리한) 편향을 도입할 위험이 있다. 위험이 완화되지 않는 한 이러한 판단은 의심스럽다.희망 니모닉(기억술)이라는 '질병'에 대한 맥더못의 처방은 금욕이다. 그러나 허구는 유용할 수 있다(무게 중심과 빛이 직선으로 이동하는 것은 물리학에서 유용한 허구다). 예를 들어 의인화는 인간-기계 상호 작용 및 기계 학습을 용이하게 한다. 더욱이, 의인화는 제거할 수 있는 것이 아니라 자연스럽고 불가피할 수 있다(맥더못조차도 희망 니모닉을 조롱하는 동시에 GPS를 '특히 멍청한' 프로그램이라고 부른다). 의인화의 법의학적 문제는 다음과 같은 것을 요구한다. 의인화를 제거하는 것이 아니라 관리해야 한다. 나는 튜링의 모방 게임이 이를 달성했다고 주장할 것이다.3. 튜링 테스트에 대한 새로운 관점튜링은 인공 시스템을 의인화하는 것이 얼마나 쉬운 일인지 잘 알고 있었다. 심지어 종이 기계와 체스를 두는 것은 '살아있는 무언가에 맞서 자신의 지혜를 겨루는 것 같은 확실한 느낌'을 준다고 말했다. (튜링은 'Computing Machinery and Intelligence(컴퓨팅 기계와 지능)'를 출판하기 2년여 전에 그 ‘작은 실험’을 실제로 수행했다고 밝혔다. 그 실험은 체스 모방 게임으로, 심판과 두 명의 참가자(인간 참가자와 종이 기계)가 참여했다.)튜링이 왜 그렇게 모방 게임을 설계했는지 현재로서는 정확히 알 수 없다. 그러나 이 게임의 설계는 의인화라는 법의학적 문제를 피할 수 있다. 이는 의인화에 대한 불이익과 기계에 유리한 의인화 편향을 가려내는 컨트롤을 모두 포함하기 때문이다.의인화에 불이익을 주는 이유는, 모방 게임 심문자(심판자)가 컴퓨터를 인간으로 오인하는 실제적이고 쉽게 노출되는 오류를 범할 위험이 있기 때문이다. 이 실수의 가능성은 의인화하려는 경향에 의해서만 증가할 수 있다. 그래서 튜링의 게임에 의인화에 대한 불이익이 내장되어 있다. 이러한 의인화에 대한 불이익의 효과는 인공지능 분야 뢰브너상 경연대회(Loebner Prize Contest in Artificial Intelligence)에서 확인할 이미테이션뜻 수 있다. 이 대회의 심사위원들은 키스멧을 가지고 놀거나 엘리자*와 채팅하는 인간처럼 행동하지 않고 의심스럽고 심지어 적대적인 태도를 보였다.* Eliza: 초기의 자연 언어 처리 컴퓨터 프로그램으로, MIT 인공지능 연구소의 조지프 와이젠바움이 1964년부터 1966년까지 개발했다. 초창기 챗봇이다.예를 들면 다음과 같습니다. 말도 안 되는 말(예: 'Wljso lwjejdo wleje elwjeo wjeol, 그렇지 않나요?'), 고의적인 철자 오류('날쑤를 어떻게 생각함?'), 속어('너 잼민이지?'), 상식적인 지식을 묻는 질문('오늘 아침에 여기까지 운전했어요. 도로의 어느 쪽으로 해서 왔을까요?’)를 통해 기계를 식별했다. 2004년 이전에 있었던 로브너 대회는 1950년 튜링의 논문에 나온 테스트와는 달리 3인 게임 형태가 아니었다. 대신 각 심사위원은 각 참가자를 개별적으로 인터뷰했다(여러 명의 심사위원과 여러 명의 참가자가 있었음). 심사위원들은 컴퓨터 대 인간 참가자의 비율을 알지 못했다. 이 2인 게임 형식에서 심사위원은 오류를 피하기 위해 전략적으로 행동하는 것처럼 보였다. 예를 들어, 2000년 대회에서는 컴퓨터를 인간으로 분류한 심사위원은 한 명도 없었으며, 실제로 10번의 면접에서 인간은 컴퓨터로 분류되었다. 2003년 대회에서는 기계를 '명백히 인간'으로 분류한 심사위원은 없었으며, 4 개의 인터뷰에서 인간은 '명백한 기계'로 분류되었습니다. 심사위원들은 인간을 인터뷰할 때에도 의인화를 거부했다.튜링의 3인 모방 게임(‘Computing Machinery and Intelligence’(컴퓨팅 기계와 지능)에 공식화됨)에는 의인화로 인한 편견을 관리할 수 있는 추가적인 수단이 포함되어 있었다. 이 게임은 다양한 주제에 대해 인간과 같은 방식으로 질문에 답하는 기계의 능력을 블라인드 통제 방식으로 시험하는 게임이다. 동시 인터뷰에 인간 참가자를 포함하면 의인화하려는 경향이 통제된 변수로 바뀐다. 면접관이 보이지 않는 참가자를 의인화하려는 경향은 참가자의 실제 신원과 무관하다고 가정할 수 있다. 결과적으로 면접관의 의인화 경향은 기계에 유리하지 않다.튜링 테스트에 대한 이러한 새로운 이해에 따르면, 이 테스트에 대한 통속적인 반대는 잘못된 생각이다. 예를 들어, 케네스 포드(Kenneth Ford)와 패트릭 헤이즈(Patrick Hayes)는 이 테스트가 '판정자의 주관에 지나치게 의존하는 잘못 설계된 실험'이라고 주장한다. 마찬가지로 철학자 네드 블록(Ned Block)은 기계가 생각하는지 아닌지 여부는 인간 질문자가 얼마나 속기 쉬운 경향이 있는지에 달려 있다고 주장한다. 튜링의 테스트에 대한 이러한 비판은 매우 설득력이 있지만 문제를 다시 한 번 짚어볼 필요가 있다. 모방 게임은 '속기 쉬운' 심사위원들에 의해 유발되는 인위적 편견을 완화하며, 잘 설계된 실험이다.4. 정신 없는* 지능과 튜링의 테스트폴락**의 관점에서 정신 없는(Mindless) 지능은 기호(상징: symbols) 없는 지능을 말하는 듯하다. 그의 주요 목표는 물리적 기호 체계 가설임이 분명하다. 그는 Lisp 인터프리터, 기호, 문법, 논리 및 추론 엔진을 ‘인지 도구’라고 설명한다. 우리가 추론하기에 ‘정신 없는 과정(a mindless process)’에는 이러한 요소가 전혀 없을 것이다.* mindless: mind를 일반적으로 ‘정신’이나 ‘마음’으로 번역하고, consciousness를 ‘의식’으로 번역하는데, ‘정신’과 ‘마음’은 우리말 뉘앙스에 약간 차이고 있고, 어떨 때는 ‘의식’과 ‘생각’, ‘정신’이 잘 구분되지 않는 용어이기도 하다. 여기서 정신이 없다는 뜻은 단순히 기계적으로만 움직이거나 말하는 (철학적) ‘좀비’라는 뜻이다. ‘좀비’가 어떤 말을 하기 위해 두뇌(CPU)에서 단어의 확률을 계산해 말을 지어내는 것을 생각의 언어화라고도 볼 수 있는데, 그렇다면 이것은 생각은 있고 정신은 없다(mindless)는 뜻인가? ‘생각을 언어화하는 능력’ 자체를 ‘의식’이라고도 볼 수 있지 않을까? 비록 감각질(퀄리아)을 가지지 못한 ‘좀비’(인공지능)이지만, 즉 마음은 없지만 의식과 생각은 있다고 할 수 있지 않을까? 여기서 중요한 것은 ‘마음mind’이나 ‘자기(self)’, ‘자의식(self-awareness)’을 가지고 있다고 보려면, 자기 자신의 목적(goal)을 자신이 개발하고 그것을 위해 자발적으로 계획을 세우고 행동할 줄 알아야 하는데, 단순히 언어적 생각을 한다고 해서 정신(mind)이 있다거나 마음(mind?)이나 자의식(self-awareness)이 있다고는 말하기 힘들다는 점이다.** John L. Pollock(1940–2009): 인식론, 철학 논리, 인지 과학 및 인공 지능 분야에서 영향력 있는 작업으로 알려진 미국 철학자.이러한 '정신 없는(mindness)’이라는 견지에서 보면, 인간 수준 지능과 정신 없는 지능을 대립시키는 것은 사실 오류이며, 정신 없는 기계가 인간 수준의 지능을 달성할 수 있을지는 전적으로 미결 문제(open question: 뚜렷한 결론이 없는 문제)다. 따라서 기계의 인간 수준의 정신없는 지능을 판단하는 기준으로서 튜링 테스트의 역할이 있는 것이다(모방 게임은 특정 인지 구조를 테스트하지 않는다).물론 폴락은 컴퓨터 과학이 인간 수준의 지능을 추구하는 것을 중단해야 한다고 주장한다. 그는 '인간 수준의 지능'을 추구하는 것은, '사실상 존재하지 않는 붉은 청어(*청어는 등푸른 생선이라 붉은 어종이 없음)'를 잡으러 다니는 짓이라고 말한다. 그렇다면 인간 수준의 인공지능이 불가능한 이유는 무엇일까? 폴락은 그 이유로 '기호적 의식 추론은 ... 신화'이기 때문이라고 말한다. 그러나 이는 인간 수준의 지능을 구축하는 목표와 상징적인(기호적인) 마음을 구축하는 목표를 동일시하는 것인데, 인간 수준의 AI는 서로 다른 아키텍처들을 활용할 이미테이션뜻 수 있기 때문에 이는 실수다. (튜링은 상징적(기호적, symbolic) 접근법과 행동 기반 접근법을 모두 시도해 볼 것을 권했다.) 사실, 폴락의 정신없는 지능에 대한 요구는 기계의 인간 수준 지능에 대한 특징을 전제로 하는데, 그는 동적 물리적 프로세스들이 똑똑한 성인 인간보다 '더 지능적'이 될 수 있다고 주장하기 때문이다.튜링은 정신없는 지능의 몇 가지 목표를 공유했다. 현재 '튜링 테스트 AI'라고 불리는 것이 튜링의 유일한 목표는 아니었다. 그의 연구는 광범위했다. 결정적으로 튜링 테스트가 '인간의 사고가 다른 모든 것을 판단해야 하는 사고의 최종적이고 가장 높은 정점'이라고 가정하는 것은 잘못된 것이다. 튜링은 자신의 테스트가 인간과 유사한 지능을 측정하는 것이며, 어떤 지능적 비인간 시스템은 매우 다르게 행동 할 수 있다는 것을 인식했다. 그의 희망은 다음과 같다. 모방 게임을 통해 기계가 생각할 수 있다는 가설의 존재 증명을 하는 것이었다. 만약 기계가 모방 게임(여러 번 시행하고, 다양한 질문자와 대면하고, 다양한 주제로 진행하는 게임)에서 좋은 성적을 거둘 수 있다면 인공지능에 대한 설득력 있는 증거가 될 수 있지 않을까?5. 블록헤드(Blockheads: 돌대가리, 멍청이), 좀비 및 기타 이의 제기튜링 테스트의 중요성을 다루는 주장이라면, 이 테스트에 대한 일반적인 반론을 다루어야 한다. 가장 중요한 철학적 반론은, 기계가 모방 게임에서 좋은 성적을 거둔다면 이는 기계가 지능적인 것처럼 행동(또는 생각)한다는 것을 보여줄 뿐이지 실제로 지능적이라는 것을 증명하는 것은 아니라는 것이다. 왜 이런 말을 할까? 한 가지 이유는 명백히 지능적이지 않은 프로그램도 테스트를 통과할 수 있기 때문이다. 일부 비평가들은 로브너 경연대회, 특히 초기 대회에서 원시적인 프로그램이 성공한 것을 지적한다. 그러나 이는 튜링 테스트에 대한 반례가 되지 못한다. 로브너의 테스트는 튜링의 테스트보다 훨씬 쉬웠으며(가령 테스트 채점 프로토콜), 초기 대회에서는 튜링의 테스트와 달리 문제 주제를 제한하고 심사위원들이 트릭을 사용하는 것을 금지했다.효과적인 반례를 만들기 위해 비평가들은 가상의 실체를 만들어야 한다. 가령 네드 블록*의 블록헤드는 방대한 룩업 테이블**을 통합한 가상의 프로그램으로, 블록에 따르면 '수다쟁이 아줌마'라고 부르는 이 프로그램은 모방 게임에서는 잘할 수 있지만 지능은 '주크박스'에 불과하다. 그러나 이 유명한 반례는 효과가 없다. 현실 세계에서는 어떤 룩업 테이블 장치도 튜링 테스트 심문자를 속일 수 없으며 처리 속도와 저장 용량의 제약을 감안하면 응시자가 질문에 답하는 데 너무 오래 걸릴 것이다. 네드 블록은 ‘수다쟁이 아줌마’와 같은 장치는 '논리적으로만 가능하고 물리적으로는 불가능'하며, '존재하기에는 너무 방대한' 기계라고 인정한다. 하지만 그의 생각에 이것은 중요하지 않다. '왜냐하면 우리는 지능이라는 개념을 붙잡을 목적으로 지능을 정의해서 제안하는 것이기 때문에 개념적 가능성이 그 일을 할 것이다.’ 그러나 튜링은 자신의 테스트를 지능의 정의로서(논리적 필요충분조건으로) 사용하지 않았다. '나는 사고에 대한 정의를 내리고 싶지 않다'는 튜링의 말(1952년 라디오 방송), 테스트의 성공이 지능의 필요조건이 아니라는 그의 인정(1950년 논문), 실세계의 기계, 즉 문제를 합리적인 시간 안에 해결할 수 있는 기계에 대한 관심을 보여주는 그의 발언(1952년 방송)을 감안하면 테스트에 대한 그러한 해석을 주장하는 것은 비뚤어진 것이다. ‘합리적인 시간 안에’ 라는 튜링의 발언 때문에 네드 블록과 다른 이들이 설명한 종류의 룩업 테이블은 자연히 고려대상에서 제외된다.* Ned Block(1942~): 의식의 이해와 인지 과학철학 에 중요한 공헌을 한 미국의 철학자. 1996년부터 뉴욕대학교에서 철학 및 심리학 교수로 재직하고 있다.블록은 ‘심리학과 행동주의(Psychologism and Behaviorism)’(1981)라는 제목의 논문에서 지능 테스트로서의 튜링 테스트에 반대하는 블록헤드 주장을 제시한 것으로 유명하다. 그는 또한 인간과 동일한 기능 상태를 가진 시스템이 반드시 의식적인 것은 아니라고 주장하는 기능주의에 대한 비판으로도 유명하다. 의식에 관한 최근 작업에서 그는 현상적 의식(phenomenal consciousness)과 접근 의식(access consciousness)을 구별했다.여기서 현상적 의식은 주관적 경험과 감정으로 구성되고 접근 의식은 추론, 언어 및 높은 수준의 행동 제어를 목적으로, 인지 시스템에서 전역적으로 사용할 수 있는 정보로 구성된다. 그는 접근 의식과 현상적 의식이 인간에게 항상 일치하는 것은 아니라고 주장했다.그는 대화 상대가 컴퓨터인지 인간인지를 결정하는 튜링 테스트의 전통적인 경연대회인 뢰브너 경연대회의 심사위원이었다.** look-up table:“날씨가 좋네요.”라는 입력이 들어오면 위의 표(룩업 테이블)을 검색해서 거기에 해당하는 답변인 “네, 좋은 날씨입니다.”를 출력하는 것이다. pi라는 입력에는 위의 룩업 테이블에서 3.14159를 찾아 출력한다. 만약 질문자가 질문할, 가령 10억개의 질문에 해당하는 10억개의 답변을 이런 식으로 룩업테이블로 만들어두고 튜링 테스트에 임한다면 참가자가 ‘좀비’라도 튜링 테스트를 통과할 수 있다고 주장하는 사람이 네드 블록이다. 10억개의 데이터를 검색하는 데 시간이 많이 걸리므로, 이런 단순하고 ‘멍청한(blockhead)’ 방식은 현실적이지 않다고 이 논문 작가가 2011년 이미테이션뜻 시점에서 주장하지만 2023년 현 시점에서는 10억개의 데이터 검색에는 1~2초도 걸리지 않을 것이다. 하드웨어 성능이 워낙 좋아지기도 했고 데이터베이스 검색 알고리즘이 워낙 뛰어나서 그 속도를 엄청나게 끌어올릴 수 있다. 현재 딥러닝 기반 채팅 프로그램이 인터넷의 방대한 데이터를 학습하여, 사용자의 질문에 어색하지 않는 답변을 하는 것을 보면 ChatGPT는 이미 튜링 테스트를 통과했다고 개인적으로 생각한다.(사실 위와 같은 방대한 룩업 테이블 검색에는 시간이 많이 걸리지 않지만 이런 10억개 데이터를 가진 룩업 테이블을 만드는 것에 엄청난 시간이 들어간다. 인터넷의 방대한 데이터를 딥러닝이 학습하는 데만 해도 상당한 시간과 노력(딥러닝이 학습할 수 있도록 데이터를 전처리 가공하는 사람들의 노력)이 들어간다.)*** 네드 블록의 블록헤드 사고실험.‘심리학과 행동주의Psychologism and Behaviorism’에서 블록은 시스템의 내부 메커니즘이 해당 시스템이 지능적인지 여부를 결정하는 데 중요하다고 주장하고 비지능형 시스템이 튜링 테스트를 통과할 수 있음을 보여주었다고 주장한다.블록은 주어진 시간 동안 지속되는 대화를 상상해 보라고 요청한다. 그는 언어의 특성상 대화를 시작하는 데 사용할 수 있는 구문 및 문법적으로 올바른 문장의 수가 한정되어 있다고 말한다. 결과적으로 대화가 끝날 때까지 첫 번째 문장, 두 번째 문장 등으로 얼마나 많은 ‘합리적인sensible’ 반응을 할 수 있는지에 한계가 있다.그런 다음 블록은 독자에게 실제로는 아니더라도 이론적으로 모든 문장으로 프로그래밍된 컴퓨터를 상상해 보라고 요청한다. 블록은 컴퓨터가, 사용할 수 있는 모든 문장을 프로그래밍 하여, 컴퓨터가 지능적이지 않음에도 불구하고 튜링 테스트를 통과할 수 있기 때문에 그러한 기계가 온갖 주제에 대해 사람과 대화를 계속할 수 있다고 주장한다.블록은 이것이 지능을 생성하는 올바른 내부 구조가 하나만 있음을 보여주는 것이 아니라고 했고, 어떤 내부 구조들은 지능을 생성하지 않는다는 것을 보여준다고 말했다.이 논쟁은 존 설(John Searle)의 중국어방(Chinese room)과 관련이 있다.튜링 테스트에 대한 몇몇 비평가들은 다음과 같이 주장한다. '진짜' 지능(또는 생각)은 본질적으로 의식을 포함하며, 모방 게임은 이를 테스트할 수 없다. 가령 존 설(John Searle)은 이러한 견해를 취하는 것으로 보이며, 튜링 테스트는 '정신(mind)의 존재'를 감지하는 것을 목표로 하지만 '외부 행동'만 테스트하기 때문에 실패한다고 주장한다. 이러한 비판은 좀비 사고실험을 통해 증명할 수 있다. 좀비는 모든 의식적 인식(즉 질적 인식 또는 '느낌')이 결여되어 있지만, 그외에는 인간과 구별할 수 없는 가상의 존재다. 좀비는 튜링의 테스트를 통과할 수 있지만, 그런 존재가 진짜로 생각을 한다고 볼 수는 없지 않나? 그러나 이 반론은 두 가지 중요한 의문을 제기한다.첫째, 인간이 무의식적인 사고*(non-conscious thoughts)를 한다는 사실을 무시한 채 단순히 사고는 본질적으로 의식을 수반한다고 가정하고 있다. 둘째, 좀비가 모방 게임에서 잘할 것이라고 가정한다. 그러나 의식적인 사고를 할 수 있는 개체만이 튜링의 테스트를 통과할 수 있을 것이다. 이것은 전적으로 답이 정해지지 않은 질문(open question)이며, 좀비가 테스트를 통과하는 모습을 상상할 수 있다고 해도(실제로 우리가 상상할 수 있을는지 의문스럽지만) 그 문제가 해결되는 것은 아니다.튜링 테스트에 대한 철학적, 과학적, 공학적 반박을 살펴보면, 이들 중 다수는 테스트 자체를 공격하지 않는다(예: 이 백서의 서두에 인용한 반박). 어떤 이들은 이 테스트를 사용하여 다음을 규정하는 것을 비판한다. AI의 핵심 목표(인간 수행 능력을 모방하는 것)를 규정하는 데 이 테스트를 사용한다고 비판하기도 한다. 다른 이들은 구식 인공지능을 연구하는 연구자들이 이 테스트를 통과할 수 있는 기계를 만들려는 시도를 비판한다. 그리고 다른 반대론자들의 진정한 타깃은 뢰브너 연례 대회의 경쟁이 프로그래머들의 편법 사용을 부추긴다는 이유에서다. 이러한 모든 비판은 튜링의 테스트에 아무런 손상을 주지 않고도 인정될 수 있다.튜링 테스트를 직접 공격하는 과학 및 공학적 반론은 사실상 두 가지 관련 비판을 제기한다. 첫 번째는 이 테스트가 연구자들이 생각하는 기계(생각 없는 '곤충'이나 인간을 위한 '지능 증폭기'는 말할 것도 없고)를 만드는 데 도움이 되지 않는다는 것이다. 예를 들어, 일부 비평가들은 이 테스트가 너무 까다로워 인공지능을 위한 실질적인 방법을 제시하지 못한다고 주장한다. 튜링은 이 게임에서 성공할 수 있는 기계를 만드는 것이 어렵다는 것을 알고 있었으며, 1952년 방송에서 기계가 '아무런 문제 없이 이 테스트를 통과할 수 있는 기회를 얻기까지는 '최소 100년'이 걸릴 것'이라고 예측했다. 그럼에도 불구하고 AI 연구자들이, 생각하는 기계를 만들려면 언제 이 목표에 도달할지에 대한 기준이 서 있어야 한다. 튜링의 테스트는 그러한 기준을 제공한다.두 번째 비판은 튜링 테스트가 연구자들이 지능을 이해하는 데, 즉 계산 이론을 구축하는 데 도움이 되지 못한다는 것이다. 가령 일부 비평가들은 인간과 유사한 시스템에 초점을 맞추는 것은 일반적인 의미에서 지능을 이해하는 데 도움이 이미테이션뜻 되지 않는다고 주장한다. 튜링은 자신의 테스트가 구체적으로 인간과 유사한 지능의 기준을 제공하기 위한 것임을 분명히 했다. 그러나 일부 비평가들은 튜링의 테스트가 인간과 유사한 지능을 테스트하기에는 너무 협소하다고 평가한다. 튜링은 여기에 동의하지 않았을 것이다. 그는 '구술 시험과 같은 것'을 선택했는데, 그 이유는 '인간의 신체적 능력과 지적 능력 사이에 상당히 선명한 선을 긋는 장점이 있고' '우리가 포함하고자 하는 인간 노력의 거의 모든 분야를 도입하는 데 적합한 것 같다'고 말했다. (모방 게임은 인간의 다양한 지적 능력 또는 수준을 테스트하는 데에도 사용될 수 있다.) 슬로먼은 '튜링 테스트나 다른 지능 테스트에 대한 개념 자체가 혼란스럽다'고 반대한다. 왜냐하면 지능적인 것과 지능적이지 않은 것 사이에 뚜렷한 이분법적 구분이 없기 때문이다. 그러나 지능이라는 개념이 모호하더라도 모방 게임은 (인간과 같은) 지능을 테스트하는 데 사용될 수 있으며, 튜링의 말처럼 참가자가 게임에서 잘하지 못했다고 해서 지능이 없다고 단정할 수 없기 때문이다.연구자들이 지능을 이론화하는 데 있어 모방 게임이 별 도움이 되지 않는다는 불만은 지능에 대한 튜링의 매우 다른 접근 방식을 간과하고 있다. 예를 들어 슬로먼은 인간 수준의 지능을 '깊이' 이해하려면 인간의 진화 과정에서 제기된 문제에 대한 해결책으로서 지적인 인간 행동의 근간이 되는 메커니즘을 파악해야 한다고 주장한다(모방 게임은 이를 제공하지 못함). 이와는 대조적으로 튜링은 1952년 방송에서 '뇌에서 원인과 결과가 저절로 작동하는 것을 볼 수 있게 되면, 사람들은 그것을 생각하는 것(사고 과정)으로 보지 않고 상상력이 없는 일종의 당나귀 작업(단조롭고 고된 일)으로 간주할 것이다'고 말했다. 그가 보기에 지능의 일반적인 개념은 기본 메커니즘이라는 개념이 아니라 특정 조건에서 사람들의 반응이라는 개념과 연결된다(섹션1 참조). 이러한 의미의 지능은 슬로먼이 제안한 종류의 조사로는 이해할 수 없지만, 모방 게임에서는 신중하게 제한된 상황에서 기계에 대한 인간의 반응을 탐구함으로써 테스트할 수 있다.6. '지능은 관찰자의 눈에 있다'인공지능이 튜링 테스트를 포기한다면 그 자리를 대체할 수 있는 것은 무엇일까? (튜링의 견해와 어느 정도 유사한) 한 가지 인기 있는 접근 방식은 단순히 '지능은 관찰자의 눈에 있다'고 말하는 것이다. 예를 들어, 로드니 브룩스(Rodney Brooks)는 바로 이 표현을 사용한다(그리고 폴락의 '의식 없는 지능'의 정의는 ‘관찰자가 인공지능에 투사한(부여한, 귀속시킨) 지능적 행동’을 일컫는다). 이러한 접근 방식은 의인화의 법의학적 문제를 뚜렷하게 제기한다. 브룩스는 '세상에서 잘 작동하는 시스템에 인지 능력을 귀속시키는 방식으로 인지와 관련이 있는 것은 외부 관찰자뿐'이라고 주장한다. 이는 '특정 실체는 그 행동을 설명하고 예측하려는 사람의 전략과 관련해서만 지향적인(intentional=의도적인) 시스템이다'라는 데넷의 고전적인 규정을 떠올리게 한다. 이러한 주장은 관찰자가 기계를 의인화한다는 이유만으로 모든 기계가 지향적 시스템일 가능성을 제기한다. 이러한 가능성을 어떻게 피할 수 있을까? 데넷은 관찰자가 기계를 지향적(의도적) 시스템으로 취급하는 것이 '편리하고, 설명이 가능하고, 예측에 실용적으로 필요한' 경우에만 정당하다고 제안했다. 부룩스는 기계와의 진정한 소통에 대한 환상이, 갈수록 점차 환상이 아니게 된다면 우리는 기계를 생각하는 존재로 간주해야 한다고 제안했다.그러나 인간은 기계의 행동에 대해 상식적인 설명을 할 때 지향적(의도적) 입장을 취하는 것이 항상 '편리'하다고 생각할 수 있다. 인공지능 연구자들조차도 기계를 의인화하는 호사는 데넷이 말한 조건(관찰자가 지향적(의도적) 태도가 유용하다고 판단하는 것)을 너무 쉽게 만족시킨다. 브룩스의 제안에도 동일한 문제가 발생한다. 많은 연구자들은 인간이 세상을 의인화하려는 진화된 경향을 가지고 있다고 주장한다(구름 모양이 얼굴처럼 생겼다고 말하거나, *화성의 지형이 사람 얼굴을 닮았다고 주장하거나 같은 경우). 그렇다면 기계와의 소통에 대한 환상이 너무나 쉽게 조성된다.이상적인 세계에서는 의인화라는 법의학적인 문제가 발생하지 않을 것이다. 그러한 세계에는 이상적인 관찰자가 있을 것이다. 잘못된 의인화 성향이 없는 관찰자, 그런 성향은 있지만 편견 없는 결정을 내릴 수 있는 관찰자 말이다. 그러나 현실 세계에서 이상적인 관찰자는 불가능하지는 않더라도 찾기가 어렵다. 튜링의 모방 게임은 이상적인 관찰자를 호출하지 않고도 문제를 해결한다.7. 결론튜링 테스트의 이론적 장점과 상관없이, 이 테스트를 사용하는 것에 반대하는 익숙한 경제적 논거가 있다. 가령, 최근 데이비드 왈츠(David Waltz)는 '앞으로는 어떤 변종 튜링 테스트(* 튜링 테스트의 단점을 보완한 다양한 변형판 튜링 테스트들)를 통과하는 것이 주목적인 연구에 투자할 기관이나 업체는 거의 없을 것이다.’ 왈츠의 주장이 맞다고 해도 인간 수준 지능을 갖춘 기계를 개발하려면 성공을 판단할 수 있는 기준이 필요하다. 기준이 없다면 그러한 장치를 만드는 것에 대한 이론을 세우는 것조차 불가능하다. 더우기, 인간 수준 AI를 구축하려면 의인화하려는 우리의 경향에 의해 훼손되지 않는, 기계의 지능 테스트가 필요하다.튜링 테스트는 의인화를 방지한다(막을 수 있다, anthropomorphism-proofed).* 감사의 말 및 참고 문헌 이미테이션뜻 생략
- 이전글롤솔랭배팅첫충소닉카지노드리블✰룰라천국.com✰원클럽 25.08.27
- 다음글야당룸쌀롱 [서진실장 O1O 3838 5659] 일산 2부영업소 ! 픽업가능! 운정노래방 보도아가씨 운정룸업소 25.08.27
댓글목록
등록된 댓글이 없습니다.