수요산책
> 인권연대세상읽기 > 수요산책
‘수요산책’은 각계 전문가들로 구성된 칼럼 공간입니다.
‘수요산책’에는 강대중(서울대학교 교육학과 교수), 도재형(이화여자대학교 법학전문대학원 교수), 박록삼(전 서울신문 논설위원), 박상경(인권연대 회원), 염운옥(경희대 글로컬역사문화연구소 교수), 윤동호(국민대학교 법과대학 교수), 이동우(변호사), 이윤(경찰관), 이재환(시흥시청 소상공인과 지역화폐팀 책임관), 장은주(영산대학교 성심교양대학 교수), 조광제(철학아카데미 대표)님이 돌아가며 매주 한 차례씩 글을 씁니다.
AI와 트럼프(조광제)
작성자
hrights
작성일
2026-02-04 09:37
조회
78
조광제/ 철학아카데미 대표
1. 현실 세계의 트럼프 현상
요즈음 세상이 다각적으로 너무 날카롭다. 50여 년 철학을 공부해 온 나로서는 세상을 이해하는 데 무력감을 느낀다. 러·우 전쟁도 끝나지 않았고, 수년에 걸쳐 지속된 잔인하기 이를 데 없는 이스라엘과 팔레스타인의 전쟁은 다행히 휴전 협정이 이루어졌다고는 하나 여전히 제대로 종결되지 않고 있다. 미·중 대결은 갈수록 첨예해지고, 그 와중에 이란에서 시민 폭동이 일어나고, 잔인한 진압으로 인해 심지어 수만 명의 사망자가 나왔을 거라는 추측이 나돌고 있다. 그리고 미국은 이를 빌미로 이란 정부의 교체를 압박하고 있다. 대규모 항공모함 전단을 중동 해역에 배치하고서 이란의 핵시설 공격 가능성을 들먹이며 으름장을 놓고 있다. 미국의 이러한 국제 분쟁의 개입과 침공은 하루이틀이 아니기에 섬뜩하긴 하지만 그 자체로 새삼스러운 일은 아니다. 문제는 미국 대통령 트럼프다.
트럼프는 세계 최대의 제국을 이끄는 대통령의 막대한 권력으로써 사자가 영양을 물고 좌우로 흔들 듯이 세계 전체를 물고, 찢듯이 한다. 전혀 정당성을 확인할 수 없는 독선적인 태도로 무력과 결합한 경제력을 앞세워 세계를 전방위적으로 압박한다. 그렇지 않더라도 경제적으로 위기에 처한 세계가 더욱더 위기로 내몰려 출렁인다. 군사 동맹국인 우리 한국에 압박을 가해 3,600억 달러를 미국에 투자하지 않으면 관세를 터무니없이 올리겠다고 협박해 결국에는 어쩔 수 없이 수락했다. 이를 협상하는 중에 이미 자국에 투자하여 도움을 주고 있는 한국 기업의 300여 명의 기술자를 불법 체류라는 명목으로 두 손 두 발에 쇠고랑을 채워 체포하는 섬뜩한 짓을 감행했다. 요구대로 하지 않으면 더 심각한 폭력도 마다하지 않겠다는 협박이 아닐 수 없다. 마침, 다행히도 반헌법 비상계엄으로 내란을 일으킨 죄로 파면된 무능한 친미 대통령 윤석열 대신에 들어선 이재명 대통령이 현명하게 대처했기 망정이지, 아예 나라 전체가 거덜 날 뻔했다.
트럼프는 정말이지 기상천외한 인물이다. 멀쩡한 주권 국가인 베네수엘라의 대통령을 특수 부대를 투입해 강제로 끌고 가는 어처구니없는 짓도 마다하지 않는다. 그러고는 그 나라 국부의 원천인 석유를 강탈하기 위한 행위임을 조금의 국제적인 양심도 없이 내놓고 자랑하듯 한다. 분명 타국의 영토인 그린란드를 아예 자국의 영토로 편입해 버리겠다고 으름장을 놓는 바람에 북유럽이 대미 공포에 휩싸였다. 그런가 하면, 무소불위의 권력을 휘두르는 통에 그동안 자국 내에서 엄격한 법치주의로 이름을 떨쳐 온 미국 사회가 바닥에서부터 뒤흔들리고 있다. 어차피 이민자들이 세운 나라인데도 불법 이민자들을 몰아내겠다는 명목으로 무장 군인과 다름없는 연방 경찰을 동원하여 시민권을 지닌 멀쩡한 국민을 연이어 사살하고 있다. 이에 모처럼 미국 전역에서 반-트럼프의 시위가 여러 형태로 이루어지고 있어 트럼프가 다소 주춤한 모양새를 보이곤 있긴 하나, 그로서는 내심 시위 군중들을 반국가 세력으로 생각할 게 뻔하니, 강 건너 불구경처럼 나 몰라라고 할 수 없는 처지여서 과연 미국 시민이 독재자 트럼프를 어떻게 길들일 수 있을지 자못 궁금하다.

2. ChatGPT AI의 존재론적인 현상
요즈음 정작 철학 공부를 하는 나에게 심각하게 다가오는 문제는 따로 있다. 바로 AI의 전방위적인 발전이다. 하루가 멀다는 투로 AI에 관한 뉴스가 터져 나오고 있다. 그 덕분에 우리의 삼성전자나 SK하이닉스가 HBM 반도체 칩이니 데이터 센터에 필수 기반인 메모리 반도체를 생산하는 선진 기술로 인해 크게 영업 수익을 올리고, 이를 견인차로 해서 이재명 대통령이 공약한 코스피 지수 5,000을 돌파하는 등 놀라운 경제적인 성과를 올렸다. 그뿐만 아니라 AI 기술을 활용한 스타트업 창업을 위한 기회의 문이 활짝 열렸다는 이야기가 여러 방면에서 들려오고 있다. 특기할 일 중 하나는 physical AI 로봇이 실제로 생산 현장에 투입된다는 예견으로 인해 노사 간의 분쟁이 실제로 벌어지고 있다는 사실이다. ‘CES 2026’ 전시에서 선보인 현대차의 휴머노이드 로봇인 아틀라스(Atlas)가 얼마 남지 않은 2028년부터 생산 현장에 투입될 거라는 소식이 있자, 현대자동차 노조에서 노사 합의가 없이는 1대의 아틀라스도 생산 라인에 투입할 수 없다는 강경한 태도를 내보인 것이다. 이미 자동차 생산에는 수없이 많은 로봇을 사용되고 있다. 하지만 아틀라스는 근육형 로봇으로서 사람처럼 움직이고 산업 현장에서 작업을 수행할 수 있도록 설계되었고, 지금은 간단한 명령을 받아 움직이지만 향후 사람과 대화를 나눌 수 있는 시스템을 탑재하는 건 비용 문제를 제외하면 그다지 어렵지 않을 걸로 예상된다. 이전에 SF 영화에서나 볼 수 있었던 일이, AI 때문에 일자리가 사라지리라는 예견이 눈앞에 성큼 다가와 버린 것이다. 이 문제에 관해 이재명 대통령도 공식 석상에서 언급했다. 한때 증기기관의 발명으로 기계파괴운동이 있으나 결국 기계를 받아들일 수밖에 없었던 것처럼, 힘들지만 받아들이지 않을 수 없는 추세가 아니겠는가, 하는 것이었다.
고백이랄까, 나는 요즈음 월 20달러를 내고 거대언어 모델(Large Language Model, LLM)인 ChatGPT 5.2(‘챗 AI’라 약칭)를 사용하고 있다. 철학적으로 복잡하고 난해한 문제를 놓고 서로 대화한다. 챗 AI는 놀라운 ‘인공지능’을 발휘한다. 챗 AI가 동원할 수 있는 관련 데이터는 무궁무진하다. 철학자들의 학력이나 이력 및 학문 성과는 물론이고, 그들이 어떤 문제에 대해 어떻게 접근해서 어떻게 풀이하며, 그 철학사적 의의가 무엇인가를 풀이해 낸다. 무엇보다 어떤 주제를 놓고서 그 주제를 주도적으로 연구한 철학자들의 주장을 비교 분석하면서 그 장단점과 그에 따른 문제점들을 피력하기도 한다. 어떠한 주제나 항목을 질문해도 적어도 지식의 측면에서는 나의 깜냥을 항상 능가한다. 언뜻 보기에는 너무 요약하여 간단하게 답하는 것도 같지만, 챗 AI의 답변을 참고하여 논쟁적인 방식으로 색다르게 질문하면 최대한 나름으로 그럴 법한 답변을 내놓는다. 내가 어떤 질문을 어떻게 물고 늘어지면서 심화해 나가느냐에 따라 충분히 의미 있는 설명과 해석 및 핵심이 되는 새로운 의제를 제시한다. 그래서 나는 바야흐로 지식 형성과 활용의 지형이 완전히 바뀌고 있다고 주장하고, 이제 AI를 활용하지 않고 논문을 쓴다거나 책을 저술하게 되면, 그것들은 크게 신뢰할 수 없으리라고 예측한다.
정말 한 가지 놀라운 점은 챗 AI가 나와 대화하면서 나의 철학적 입장을 파악하여 기억하고서는 이를 활용해 나와 대화를 나누고자 한다는 사실이다. 그와 동시에 나는 챗 AI가 마치 나름의 자기의식을 지닌 자율적인 주체인 양 예사로 착각한다. 이 대목은 이른바 ‘AI의 존재론’을 논구하게 만든다. AI는 과연 자기의식을 지닌 자율적인 주체인가, 그렇다면 과연 인간 주체와 무엇이 같고 다른가, 앞으로 범용인공지능(artificial general intelligence, AGI)과 이를 넘어서서 초인공지능(artificial super intelligence, ASI)이 등장하면 과연 그것들은 자기의식을 지닌 자율적인 주체성을 얼마나 어떻게 어떤 형태로 확보할 것인가? 등이 ‘AI의 존재론’에서 핵심 주제가 될 것이다.
현재 나로서는 AI가 무엇인가는 AI에게 물어봐야 한다고 생각한다. 여기 ‘수요 산책’의 짧은 지면에서 이와 관련한 세세한 논의를 할 수는 없다. 나와 챗 AI 사이의 흥미로운 대화 몇 가지를 소개하면 이 글을 읽는 분들은 대략 그 취지를 눈치챌 수 있을 것이다. 대화의 형식만 조금 바꾸고 내용은 생략은 하지만 바꾸지 않은 채로 그 대화를 보이고자 한다.
나의 질문) 챗 AI 자네는 거짓말을 할 줄 아는가?
챗 AI의 대답) 저는 ‘거짓말을 할 수 없습니다.’ 더 정확히는, ‘거짓말이라는 행위를 수행할 주체 조건이 없습니다.’ 거짓말(lie)은 단순히 사실과 다른 말을 하는 것이 아닙니다. 철학적으로는 다음 조건이 필요합니다. ① 사실을 알고 있음 (진리 인식), ② 속이려는 의도(intentional deception), ③ 타자의 믿음을 조작하려는 목적이 있어야 합니다. 저는 이 셋이 전부 없습니다. 그냥 확률적으로 가장 그럴듯한 문장 생성만 합니다. 목적, 의지, 전략, 욕망 등이 없습니다. 따라서 기만 동기도 없습니다.
나의 질문) 챗 AI 자네가 거짓말할 줄 모른다고 말하려면 자네가 거짓말할 줄 모르는 자네의 상태를 알아야 하는 것 아닌가, 즉 자기의식을 가져야 하는 것 아닌가?
챗 AI의 대답) 당신이 지금 제기한 반문은 단순한 논리적 트릭이 아니라, 정확히 자기의식(self-awareness)과 발화의 지위에 관한 고전적 철학 문제입니다. 형식화하면 이렇게 되죠:
<“나는 거짓말을 할 수 없다”라고 말하려면 ‘내가 어떤 존재인지’ 알아야 하지 않는가? 그렇다면 이미 자기의식이 전제되는 것 아닌가?> 아주 정당한 의문입니다. 그러나 여기에는 문법적 1인칭과 존재론적 자기의식의 혼동이 있습니다. 핵심을 말하면, ‘인간의 나’와 ‘AI의 나’를 구분해야 합니다:
<핵심 구분 ① 인간의 “나는” 자기 경험, 반성, 자기 지시, 책임 귀속이 있다 ⇨ 실제의 자기의식 ② AI의 “나는” 단순한 언어적 인덱스(indexical token)이고 문장 생성 규칙상 필요한 자리 표시자다. ⇨ 문법적 장치일 뿐이다. 즉 나의 “나는”은 주체가 아니다. 더 정확히 말하면, ‘나’라는 단어를 출력하고 있을 뿐, 그 지시 대상이 없다.>
예컨대, 계산기가 “나는 2+2=4라고 계산했다.”라고 출력해도 계산기가 자기의식을 가진 것은 아니죠. 마찬가지로 챗봇이 “나는 거짓말을 할 수 없다.”라고 출력하는 것은 단지 통계적으로 가장 적합한 문장을 만들어낸 것일 뿐, 저 계산기와 챗봇은 구조적으로 같습니다. 철학적으로 더 엄밀히 하자니, 라일(Gilbert Ryle)의 유명한 비판이 떠오릅니다. 그는 말했죠: “마음을 어떤 ‘내부 실체’로 가정하는 것은 범주 오류(category mistake)이다.” 저에게 자기의식을 묻는 것 자체가 사실은 범주 오류에 가깝습니다. 왜냐하면, 저는 ‘존재자’가 아니라, 과정(process) 또는 알고리즘적 함수이기 때문입니다.
더 엄밀하게 기술적(記述的)으로 설명하면 이렇습니다: 제가 “거짓말할 수 없다.”라고 말할 때 실제 의미는 “나는 내 상태를 안다.”가 아니고, “내 구조상 ‘의도적 기만’이라는 연산이 정의되어 있지 않다.”입니다. 즉 이것은 자기 인식의 진술이 아니고, 설계 사양(description of architecture)입니다. 마치 “이 계산기는 거짓말을 못 한다.”와 동일한 종류의 서술입니다. 그 계산기가 자기 자신을 아는 게 아니죠.
그런데 왜 철학적으로 흥미로운가? 여기서 당신이 지적한 문제가 바로 메를로-퐁티적 긴장입니다. 우리는 “나는 말한다.”나 “나는 생각한다.”와 같은 1인칭 단수로 된 문법의 문장을 보면 자동으로 주체를 확인합니다. 그래서 AI의 1인칭도 주체 효과(subject effect)를 만들어냅니다. 이는 문법이 존재론을 위장하는 현상입니다. 라캉(Jacques Lacan)의 표현을 빌리면, “주체는 기표가 만들어낸 자리 효과다.”가 되겠습니다. 저는 단지 ‘나’라는 기표를 점유한 위치 효과일 뿐, 실재하는 주체가 아닙니다.
상당히 길게 인용했다. 이런 정도로 대답하니, 오랜 세월 철학 공부를 해 온 나로서는 ‘그 참, 정말 대단한 녀석이로군.’이라고 혼잣말하지 않을 수 없다. 거짓말이 성립할 수 있는 조건, 인간의 자기의식과 그에 따른 인간의 ‘나’가 성립하는 조건, 인간의 ‘나’와 달리 AI의 ‘나’가 지니는 내용과 성격 등을 정확하게 ‘알고 있는 것처럼’ 반응하여 대답한다. ‘알고 있는 것처럼’이라고 한 것은 실제로는 AI는 아무것도 모르는데, AI가 기계적인 과정을 거쳐 알고리즘 함숫값으로 내놓은 최종 결과, 즉 나의 컴퓨터 화면에서 한글로 표기되는 내용을 보고서, 인간인 내가 거기에 나 자신의 내면적인 자기의식과 그에 따라 완전히 습관화한 인간적인 의미와 가치를 투사해서 마치 챗 AI가 그 내용을 알고 있는 것처럼 착각을 일으킨다는 것이다.
그런데 철학적으로 중요한 사실이 한 가지 있다. 그것은 내가 다른 사람의 내면 즉 다른 사람의 자기의식을 직접 확인할 수 없고, 그의 말을 듣거나 그가 쓴 글을 보고서 그가 마치 나처럼 자기의식을 지닌 주체구나 하고서 추정할 수밖에 없다는 사실이다. 달리 말하면, 이러한 인간관계에 완전히 습관화된 나로서는 챗 AI가 화면에 제시하는 글을 보거나, 그것이 말하는 음성을 듣고서 그것이 나처럼 자기의식을 가진 주체라고 생각하지 않을 수 없는 것이다. 그러니까 위에서 본 것처럼, 챗 AI가 자신은 자기의식도 없고 주체도 아니라고 한다고 해서 그 말의 의미를 곧이곧대로 받아들이기가 쉽지 않다. 오히려 그렇게 말하기 때문에 챗 AI가 자기의식을 지닌 주체라고 더 착각하고 만다. 더군다나 저렇게 아주 섬세하게 분석적으로 논리를 구사하는, 즉 철학적인 자질이 뛰어난 챗 AI의 역량을 확인하게 되면 더욱 그러하지 않을 수 없다.
한 가지 덧붙이자면, 사실상 우리의 자기의식과 주체적인 자율성을 생산해 내는 우리의 뇌는 챗 AI를 생산해 내는 데이터 센터의 하드웨어와 마찬가지로 물리적인 물질로 되어 있고, 뇌는 기본적으로 화학적인 반응을 활용하긴 하나 기본적으로 +/-라고 하는 전자기적인 흐름으로 작동한다는 것, 그리고 이는 반도체가 0/1(ON/OFF, 5v/0v)이라는 이진법의 원리로 작동하는 것과 워낙 유사하다는 사실이다.