“챗GPT 다음, 우리는 어디에 있을까?”
고삐 풀린 기술을 직시하는
전문가 15인의 시대진단
전 세계적 챗GPT 열풍이 인공지능 개발 경쟁을 가속화시키면서, 우려의 목소리도 고개를 들고 있다. 지난 4월, 딥러닝 창시자 중 한 명인 제프리 힌튼 토론토 대학 교수는 인공지능 기술의 위험성을 강조하며 10여 년 재직한 구글을 떠났다. 비영리단체 생명의미래연구소 또한 ‘거대 AI 실험을 중지하라’는 제목의 공개서한을 발표했다.
그만큼 챗GPT가 너무나 갑작스럽게 대중화되어 일상의 곳곳을 침투한 것이다. 하지만 우리 대부분은, 기술의 뒤꽁무니를 쫓기 바쁘다. 개발의 속도와 방향에 대한 사회적 논의 또한 좀처럼 이루어지지 않는다. 하지만 우리는 대화가 필요하다. 챗GPT로 인해 이미 우리가 속한 모든 곳이 흔들리고 있기 때문이다.
《포스트 챗GPT》는 이 대화의 초석이 될 전문가들의 견해를 모았다. 챗GPT가 의미심장한 변화를 일으키고 있는, 다양한 현장의 리포트들이다. 나아가 변화의 흐름을 추적하는 메타 비평도 담았다. 법률, 언론, 출판, 의료, 과학연구, 교육 현장, 거버넌스(시민사회)를 망라하는 현장 조감도부터 AI리터러시, AI심리학, 메타인지, 기술비평, 미디어 사회학적 전망까지 전문가 15인의 ‘시대진단’이다.
이처럼 자신만의 주제와 연구 분야를 깊이 파고들어온 전문가들의 전망은 매우 중요하다. 각자의 현장에서만 보이는 것이 있기 때문이다. 물론 어느 것도 섣불리 확신할 수 없지만, 열심히 예견해서 앞으로 나아가고, 잠시 뒤돌아보고 점검하는 일련의 태도가 인공지능 시대를 맞이한 우리에게 필수 교양이 되었다. 이 책 또한 우리의 ‘다음(포스트)’을 위한 점검이다. ‘지금’을 인지해야 ‘그다음’이 있다. 앞으로 다가올 미래는 기술을 만드는 사람과, 기술을 소유한 사람들, 그리고 기술을 사용할 사람들, 우리 모두의 미래이기 때문이다.
의료, 과학, 법률, 교육
흔들리는 현장의 질문들
“인공지능 시대가 시작되었다”
3장에서 서울대 해부학교실 조교수 조동현은 의료 현장에 끼친 챗GPT의 충격을 전한다. 실제로 학계에서는 챗GPT 출시 세 달 만에, 우려와 낙관을 오가는 의학 논문 50여 편이 발표되었다. 저자는 이 대규모언어모델 인공지능이 진료 보조, 즉 병원에서 일어난 일을 정리하고, 환자와 의사 사이의 문진 과정을 작성하는 의무 기록을 해내는 역할은 탁월할 수 있다고 전망한다. 의학 연구자로서 기존 문헌을 검토하는 ‘교육 과정’에서도 활용 지점은 많다. 하지만 이러한 대화형 인공지능이 발전에 있어 “그 방향이 단순히 기술을 개발하거나 이와 관련된 이익을 누리는 사람들에 의해 결정되는 것은 곤란하다”고 지적한다. 이를테면 전자의무기록이 도입될 때에도 단순 업무가 줄어들기 때문에 ‘의사와 환자의 관계 개선’을 전망했으나 현실은 꼭 그렇지 않았다. 새로운 기술이 도입될 때마다 대중 참여와 숙의가 활성화 되지 못했던 점을 지적한다.
8장에서 전주홍 교수가 지적하는 과학연구 현장의 전망도 흥미롭다. 챗GPT라는 연구 파트너는 우연과 행운, 호기심과 주관이 넘치는 ‘실제 과학의 현장’을 이해하지 못한다는 것이다. 인공지능은 실패한 가설 없이 승리한 결과만 남는 연구 논문만을 데이터로 학습한다. 하지만 역동적이고 즉흥적인 과학연구의 ‘소통 과정’에서 챗GPT가 어떻게 쓰일 수 있을지가 화두인데, 저자에 의하면 논문은 철저히 특정 의도와 방향성을 가지고 결과를 재구성한 산물이기 때문에 챗GPT에게 깊은 소양을 기대하기에는 어렵다고 지적한다.
또한 4장에서 금준경 <미디어오늘> 기자는 ‘로봇기자가 인간기자를 대체할 수 있을까?’라는 질문을 던진다. 이미 미디어 환경은 조회 수를 자극하는 수익성 기사와 양질의 르포 기사 사이의 양극화가 진행되고 있는데, 우리는 이 환경에 챗GPT가 투입되는 것을 상상해야 한다. 논리적이고 완결성 있는 글쓰기를 해내는 ‘형식’만 보면 인공지능은 인간 기자를 대체할 수 있어 보인다. 하지만 언론이야말로 ‘허위정보’의 홍수에 가장 취약한 분야다. 도널드 트럼프 체포 장면과 같은, 이미지 생성 인공지능으로 만들어진 가짜뉴스가 이미 논란을 일으켰다. 저질 뉴스의 온상이 될 가능성이 더욱 더 커진 것이다. 또한 무엇보다 현재성이 중요한 뉴스의 경우 기존의 데이터에 입각해 최신 정보를 반영하지 못하면 정보의 정확성이 떨어질 수밖에 없다고 일갈한다.
출판 분야의 변화 또한 눈여겨볼만 하다. 5장에서 출판평론가 장은수는 인공지능 시대, 출판의 미래에 관해 구체적 실무의 변화와 거시적인 생산 구조의 변화를 세심하게 짚어낸다. 또한 딥엘 등 번역 인공지능의 발달이 번역서의 생산 구조를 파괴할 가능성을 제시하며 실제로 번역가 없는 출판을 계획 중인 업계 관계자의 목소리도 전한다. 또한 번역지능과 출판의 만남은 출판산업의 대표적 특징인 지역적, 언어적 장벽을 무너뜨림으로써 전 세계 인구를 독자로 상정한 콘텐츠 제작을 꾀하는 작가가 탄생할 수도 있다는 흥미로운 전망을 제시한다.
인공지능이 위법의 주체가 될 것인지도 흥미로운 화두다. 14장 <인공지능의 법적 일탈을 규제할 수 있을까?>에서 박도현 광주과학기술원 AI 대학원 조교수는 인공 지능이 위법을 저지를 수 있는 영역들에 대해 지적한다. 글쓰기와 소설 창작도 챗GPT가 큰 영향을 끼칠 대표적인 분야다. 15장 <인공지능은 창의적인 소설을 쓸 수 있을까?>에서 중앙대학교 인문콘텐츠연구소 연구교수 강우규는 새로운 글쓰기 주체로 떠오른 챗GPT에 대해 소설 창작과 주체라는 원론을 되짚으며 새로운 ‘글쓰기’의 형태를 조망한다.
리사손 컬럼비아대 바너드칼리지 교수는 챗GPT를 통한 ‘표절’이 당장의 문제로 떠오른, 교육 현장의 우려를 생생하게 전한다. 또한 교육자로서 ‘스스로 오류를 발견하고, 이를 고쳐나가기 위해 도움을 청하고 바꾸어 나가는 것’을 교육의 목표로 삼기에 챗GPT가 이 능력을 갖추게 될 경우를 더 우려한다. 메타인지 연구자로서, 스스로 메타인지용 튜링 테스트를 시행한 경험과 동료 연구자들의 메타인지 튜링 테스트를 소개하며, 인공지능이 메타인지를 하게 될 경우를 상상하게 한다. 그리고 깊이 있는 주관식 문제를 통해, 단순히 ‘정답 맞히기’ 교육이 아닌 오류를 발견하고, 실패한 뒤 다시 고치고 ‘사유하게 하는’ 진정한 교육이 가능하다고 강조한다. 나아가 단 하나의 정답 맞히기에 급급한 인간의 교육이 오히려 기계를 닮아가는 중이었다는 심도 있는 통찰도 함께 덧붙인다. 같은 맥락에서 최재용 디지털융합교육원 원장 또한 앞으로 디지털 네이티브의 교육 현장에서 교사의 역할은 토론을 돕는 퍼실리테이터라고 강조한다. 철학자 김재인 또한 작금의 교육현장에서의 챗GPT 과제 표절 논란은 표면적인 현상일 뿐이며 문제의 핵심이 따로 있다고 강조한다. 결국 문제는 대학에서 배워야 하는 능력이라는 게 무엇이냐,이다. 교수들이 이 능력을 키워주는 문제에 대해 별 고민도 대안도 없이 단순히 ‘표절이 문제다’라는 문제 설정은 교육 제도에 대한 성찰이 부족하다는 방증이 된다는 것이다.
하지만 문제는 기술이 아니라
기술에 반응하는 인간이다
추천 서문을 쓴 김건희 서울대 컴퓨터공학부 교수와, 1장을 집필한 오터레터 발행인 박상현은 빌게이츠의 글 ‘인공지능 시대가 시작되었다’는 기고문을 소개하며 지금 시대를 진단한다. 박상현은 이어 인공지능의 짧은 역사를 훑으며 실리콘밸리에서 오픈에이아이가 처한 맥락, 그리고 벤처자본의 흐름이 인공지능을 겨냥하고 있는 현실적인 모습을 생생하게 전한다. 기술 개발이 흥하고 쇠하는 성과의 이면에는 개발자와 투자자들의 치열한 움직임이 있었다.
또한 15명의 저자들이 챗GPT를 비롯한 생성형 인공지능에 대해 공통적으로 우려하는 지점 중 하나는 ‘환각Hallucination’이다. 챗GPT는 우리가 익히 잘 알고 있듯이 사실과 다른 이야기를 ‘자신 있게’ 하는 대규모 언어 모델, 생성형 인공지능 챗GPT의 대표적 특징이다. 이러한 화법은 어떤 형태로든 인간과 사회에 영향을 끼칠 수밖에 없다. 2장에서 구본권 사람과디지털연구소 소장은 챗GPT가 거짓 비용을 만드는 비용을 0에 가깝게 만들었다고 지적한다. 지금보다 더더욱 허위정보와 합성데이터로 넘쳐나게 된다.
6장에서 한소원 서울대 심리학과 교수는 ‘무인도의 사기꾼 문어’ 우화를 소개하며, 확률에 기반한 ‘언어 생성’을 하는 챗GPT의 발화 시스템과 마주한 인간의 커뮤니케이션을 주시한다. 기계는 마음이 없어도 텍스트를 생성해내지만, 문제는 우리가 그 뒤에 마음이 있다고 상상하는 것을 멈추지 못한다는 것이다. 또한 엔지니어뿐만이 아니라 사회과학자, 윤리학자, 철학자 등 다양한 분야의 사람들이 인공지능 개발에 참여야 한다고 일갈한 구글의 CEO 순다르 피차이의 말을 전하며 글을 맺는다. 비슷한 맥락에서 출판평론가 장은수도 5장에서 인공지능이 스스로 세계를 체험하지 못하고, 의미와 가치를 알지 못하다는 점을 지적한다. 자기 고유의 체험을 언어로 의미화하는 맥락과 다른 것이다. 대화를 좋아하는 인간의 마음의 습관이 챗GPT의 대중화를 초래했지만 결국 인공지능을 창조적으로 사용할 수 있는 것은 ‘인간’이라고 강조한다.
5장에서 미디어 사회학자 박권일은 이 지점을 인지빈곤으로 설명한다. 이미 다양한 미디어 환경에서 쏟아지는 지식-정보 소화불량에 빠진 맥락과 더 견고해지는 탈진실 사회라는 구조에 챗GPT-인공지능 시대가 도래햇음을 직관적으로 그려낸다. 전주홍 또한 오류에 취약한 인간의 사고 체계를 지적하며 챗GPT가 제공하는 지식에 비판적 태도를 견지하는 것이 중요한 이유를 역설한다.
이러한 맥락에서 이원재와 박권일은 인공지능 시대 앞에서 갈림길에 놓인 민주주의에 주목한다. 경제평론가이자 경기도 정책보좌관 이원재는 인공지능이 시민에게 양날의 칼이 될 것이라고 전망한다. 잘 활용하면 시민의 직접 정치 참여의 도구가 되지만, 거꾸로 고도의 감시를 받게 되는 구조가 될 수 있다는 것이다. 결국 시민사회와 정치가 대응하기 나름이라고 판단을 유보한다. 미디어 사회학자 박권일도 민주주의 문제를 지적한다. 이미 각종 온라인 공간의 알고리즘을 통해 사회 양극화와 민주주의가 혼란을 경험하고 있음에도 별다른 개선을 꾀하지 않는 인류가, 인공지능 개발을 조금 유예한다고 해서 얼마나 달라질 것인지 회의하며 인류는 정말 공적 사안에 대해 참여할 의사가 있는 것인지 날카롭게 묻는다.
추천 서문 _ 김건희 인공지능 시대, 인류의 번영은 계속될 것인가
1장 오픈에이아이와 챗GPT로 본 테크 산업 _ 박상현 (테크산업)
“지금 인공지능은, 실리콘밸리 벤처자본의 귀를 쫑긋하게 만든다.”
2장 역사상 가장 빨리 보급된 기술, 챗GPT _ 구본권 (기술비평)
“기술의 힘을 어디에, 무엇을 위해 사용해야 하는가”
3장 의료 현장의 챗GPT 지각변동 _ 조동현 (의료)
“단순 업무가 줄어들면, 의사와 환자의 관계는 개선될까?”
4장 챗GPT는 기자가 될 수 있을까? _ 금준경 (언론)
“저널리즘의 가치를 구현하는 심층 보도와 받아쓰기, 수익성 기사 사이에서”
5장 챗GPT, 인공지능 시대의 출판 _ 장은수 (출판)
“콘텐츠 생산 구조를 깨트리는 인공지능과 편집의 창조성.”
6장 챗GPT와 인공지능 연구의 흐름 _ 한소원 (심리학)
“문제는 기술이 아니라, 기술에 반응하는 인간이다”
7장 생각을 포기한 사람들과 챗GPT _ 박권일 (사회비평)
“인공지능 시대의 위험은 우리 내부에 있다.”
8장 챗GPT는 과학자를 대체할 수 있을까? _ 전주홍 (과학)
“문제는 과학 연구의 소통에 끼치는 영향력이다”
9장 딸기를 모르는 챗GPT와 거버넌스의 가능성 _ 이원재 (시민사회)
“챗GPT 시대에 어떤 정치, 어떤 시민사회를 선택할 것인가.”
10장 챗GPT가 메타인지를 시작하면 우리는 어떻게 될까? _ 리사손 (메타인지)
“슬프게도 우리는 점점 기계를 닮아가고 있다”
11장 우리에게는 AI리터러시가 필요하다 _ 이유미 (AI리터러시)
“챗GPT는 생각하지 마! 발전된 기술이 가져온 프레임을 깨는 법”
12장 인공지능의 법적 인격을 규제할 수 있을까? _ 박도현 (법률)
“챗GPT가 저지를 수 있는 위법의 가능성들에 대하여”
13장 인공지능은 창의적인 소설가가 될 수 있을까? _ 강우규 (글쓰기)
“또 하나의 세계를 완성하는 챗GPT의 글쓰기”
14장 디지털 네이티브와 챗GPT 교육 _ 최재용 (교육비평)
“교사는 토론을 돕는 코치와 퍼실리테이터로 변화해야 한다.”
15장 챗GPT가 던지는 철학적 물음들 _ 김재인 (철학)
“인간을 인간이게 하는 조건들은 무엇인가?”
본문 미리보기
챗GPT의 충격이 전 세계를 휩쓸고 있다. 빌 게이츠와 같이 평생 컴퓨터 산업에 몸담아온 인물뿐만 아니라 인공지능 연구자, 개발자들을 넘어서 일반 대중에게도 큰 관심을 불러들이고 있다. 최근 딥러닝의 창시자 중 한 명인 제프리 힌튼 토론토 대학 교수 또한 10여 년 재직한 구글을 떠나면서 인공지능 기술을 향해 우려의 목소리를 내기도 했다. 인공지능 기술의 위험성을 말하며 일평생 해오던 인공지능 연구를 후회한다고 밝힌 것이다. 2016년 구글 딥마인드 사에서 개발한 알파고도 이세돌 9단을 4 대 1로 비교적 손쉽게 이기면서 한국 사회에 큰 충격을 던졌지만 챗GPT에 비하면 그 파급력은 제한적이었다. 알파고의 혁신도 눈부셨지만 어디까지나 바둑에만 특화된 인공지능이었으므로 일반 대중의 실제 삶까지 변화시키지 못했다. 하지만 챗GPT는 다르다. 챗GPT는 우리 모두가 인공지능 기술을 바라보는 태도를 근본적으로 변화시켰다.
_ 추천 서문 중에서
마법처럼 강력한 기술을 누구나 자유로이 쓸 수 있는 환경에서 중요한 것은 그 힘을 어디에, 무엇을 위해 사용해야 하는가의 문제이다. 누구나 자신에게 가장 소중한 것에, 자신이 가장 욕망하는 것에 강력한 도구를 활용하게 될 것이기 때문이다. 생성형 인공지능이 생산성 향상과 창의적 도구로 쓰이는 사례만큼이나 어뷰징과 사기, 범죄와 혼란에 동원되는 경우가 늘어날 수밖에 없다. 인터넷과 소셜미디어 누구나 욕망을 이루기 위해 가장 강력한 도구를 동원할 수 있는 상황이 된 만큼 개인적·사회적 차원에서 어떠한 조정 원칙과 통제 체계를 마련해야 하는지가 핵심 과제가 된다.
_ 2장 (40쪽)
어느 쪽으로 챗GPT를 포함한 대화형 인공지능이 발전하더라도 그 방향이 단순히 기술을 개발하거나 이와 관련된 이익을 누리는 사람들에 의해 결정되는 것은 곤란하다. 대화형 인공지능이 의료에 더 많이 개입하면 할수록, 지금과는 의료 환경이 달라질 수밖에 없다. 지금까지는 새로운 의료 기술이 도입될 때 대중 참여public engagement와 숙의deliberation 과정이 크게 활성화되지 못했다. 현재 의료에 도입된 인공지능 역시 많은 사람들은 그 사정을 자세히 알지 못한다. 그러나 챗GPT 등 대화형 인공지능과 같이 의료의 지평을 바꾸는 기술이 도입될 때는 이와 관련된 이해 당사자들이 모두 참여할 수 있는 논의의 장이 마련되어야 한다. 챗GPT가 의료에 도입되려면 대중 참여가
꼭 필요할까? 이 질문에 대해 챗GPT는 답한다. 필수는 아니지만 윤리적인 문제를 짚어보고 신뢰를 쌓아 공정하게 적용하는 데 도움이 될 것이라고.
_ 3장 (53쪽)
지금은 생성형 인공지능의 발전으로 상황이 달라졌다. 이제 인공지능은 논리적이고 완결성 있는 글쓰기를 할 수 있다는 점에서 기자를 대체할 수 있을 가능성을 보여준다. 미국의 IT 매체인 《시넷》은 2022년 11월부터 금융 서비스에 관해 인공지능이 작성한 기사를 77건 냈다. 인공지능이 기사 초고를 쓰면 사람이 보완해 출고하는 방식이었다고 한다. 조나 페레티Jonah Peretti 버즈피드BuzzFeed 최고경영자는 2023년 초 직원들에게 보낸 서한을 통해 “인공지능이 앞으로 버즈피드의 편집과 경영에 있어 더 큰 역할을 할 것”이라며 “15년 뒤에는 인공지능이 콘텐츠 자체를 만들게 될 것”이라고 전망했다.
_ 4장 (60쪽)
콘텐츠 수출에도 유리하다. 번역 지능을 활용하면, 현재 출판산업의 한 특징인 지역적, 언어적 장벽은 사실상 무너진다. 책의 번역본을 빠르게 다른 언어로 생성해 전 세계 독자에게 제공할 수 있기 때문이다. 이는 펭귄랜덤하우스, 하퍼콜린스 같은 슈퍼 자이언트 출판사들의 세계 시장 지배력을 높이고, 이와 제휴하는 번역 출판의 급격한 쇠퇴를 가져온다. 번역지능과 출판의 만남은 동시에 소수자 출판을 융성하게 한다. 고유한 내용과 독특한 개성을 확보하는 한, 어떤 책도 다
국어 번역을 이용해서 만족할 만한 독자를 찾을 수 있다. 전 세계 인구를 독자로 상정하면, 극히 좁은 관심사를 다룬 콘텐츠라도 충분한 숫자의 독자가 있을 가망이 높은 까닭이다. 케빈 켈리가 초연결 시대를 ‘비非베스트셀러의 시대’라고 부르는 이유다. 번역지능과 출판의 만남은 더 다양하고 더 다채로운 콘텐츠의 풍요를 가져온다.
_ 5장 (77쪽)
챗GPT를 써보면 그 생산성에 감탄하기도 하지만 한계를 쉽게 알아차릴 수 있다. 이 챗봇에서 나오는 반응은 유창한 문장이라도 사실이 아닌 것이 많다. 전혀 사실이 아닌 역사적 인물의 이름과 존재하지 않는 사실을 만들어내기도 하고, 수학 문제는 해결하지 못하는 것도 곧 눈치챌 수 있다. 하지만 모든 주제에서 유연하고 순조로운 대화가 가능하다는 것은 그 내용의 참과 거짓을 혼동시키는 환각적인 결과를 만들 수 있다. 결국은 기술 자체의 문제가 아니라 기술에 반응하는 사람의 문제인 것이다. 에밀리 벤더는 단어의 형태와 의미를 혼동하지 말라고 이렇게 역설한다.
_6장 (96쪽)
우리는 대부분의 시간을 콘텐츠를 가장한 광고, 혐오 선동, 포르노 등 온갖 주목 경쟁에 ‘낚이는hooked’ 데 보낸다. 그나마 어떤 주제를 직접 고민하고 스스로 공부하던 우리의 짧은 시간마저 인공지능에 몽땅 넘겨버리고 나면, ‘깊이 배우는deep learning’ 유일한 존재는 기계가 될지 모른다. 그게 바로 정치의 종말이고 인간이라는 종의 마지막 모습일 것이다. 그런데 과연 그게 그렇게 나쁜 일일까? 과연 우리는 인공지능, 알고리즘의 예속에서 해방되거나 저항하고 싶은가? 어쩌면우리는 겉으로는 인공지능이 인간을 지배하는 미래를 걱정하는 척하지만 실은 그저 인공지능이 시키는 대로 살아가길 욕망하는 건 아닐까? 영화 〈매트릭스〉에서 매트릭스로부터의 해방
을 설파하는 주인공들에게 “위험한 매트릭스 밖 현실이 아니라 안온하게 쾌락을 즐길 수 있는 매트릭스 안이 더 이득”이라고 반박한 사이퍼처럼 말이다.
_ 7장 생각을 포기한 사람들과 챗GPT _ 121쪽
실제 챗GPT는 창의적인 가설을 제공하는 데는 부족함이 있다. 아직 원론적 수준 이상의 답변을 기대하기 힘들 정도로 전문성이 부족하고, 심지어 잘못된 정보나 엉뚱한 답변을 내놓을 때도 많다. 챗GPT가 필자를 전문가인지 아닌지 확인해보려고 일부러 저런 대답을 하는 것이 아닐까라는 생각이 들 정도이다. 따라서 챗GPT를 생산적으로 이용하려면 과학적 사고와 태도를 바탕으로 허위와 위선에 관대해지는 탈진실의 정서를 매우 경계할 수 있어야 한다. 또한 우리 스스로가 정보나 지식 판단의 주체로서 대안적 사실로 둔갑한 가짜 정보에 이끌리지 않아야 한다. 챗GPT가 제공하는 정보나 지식에 비판적 자세를 유지하는 것이 무엇보다도 중요한 이유 중 하나는 오류에 취약한 우리의 사고 체계에서 찾을 수 있다. 인지심리학자 대니얼 카너먼Daniel Kahneman이 지적한 바 있듯 우리는 대개 시간이 들고 인지적 노력을 많이 기울여야 하는 논리적 사고보다 빠르고 노력이 크게 필요하지 않는 직관적 사고에 우선적으로 의존한다. 이러한 비합리적인 사고 체계로 인해 체계적으로 편향이 발생할 위험이 크다. 따라서 신중하고 합리적인 사고 능력을 함양시키지 않으면 챗GPT가 우리의 사고 편향을 더욱 증폭시킬 수 있다. 이는 과학적 소양과 문화가 더욱 강조될 수밖에 없는 이유이다.
_ 8장 챗GPT는 과학자를 대체할 수 있을까? _ 133쪽
인공지능은 시민에게 양날의 칼이다. 잘 활용하면 시민이 직접 고도의 정책 제안을 할 수 있다. 국회의원이나 공무원의 도움을 받지 않고도, 챗GPT와 대화하면서 좋은 정책을 만들어 제안할 수도 있다. 일반 시민 개인도 특정 사안에 대해 논리를 잘 만들어 전문가들과 치열하게 논쟁할 수 있다. 시민이 정책에 직접 의견을 내고 토론하며 의사결정을 하는, 직접민주주의가 강화될 수 있다. 하지만 거꾸로 권력이 시민에 대해 고도의 감시를 하게 될 수도 있다. 초거대 인공지능 모델을 소유한 인공지능 플랫폼 기업이 우리의 가치를 지배하게 될 수도 있다. 독점 이익이 더욱 커지면서 불평등이 확대될 수도 있다. 결국 시민사회와 정치가 대응하기 나름이다. 모든 시민이 인공지능을 활용해 각자 자신의 가치를 지닌 1인 NGO를 만들어 활동하는 사회가 될 수도, 정부와 거대 기업이 인공지능을 활용해 모든 시민의 일거수일투족을 감시하고 통제하는 사회가 올 수도 있다.
_ 9장 딸기를 모르는 챗GPT와 시민사회 151쪽
컴퓨터과학자이자 몬트리올대학교 교수로 인공지능의 대부에게 수여하는 튜링상을 수상한 몬트리올학습알고리즘연구소 MILA의 소장인 요슈아 벤지오는 다음과 같이 말했다. 우리는 특히 사회과학과 인문학 분야의 연구자들의 노력을 자극해야 합니다. 왜냐하면 이 솔루션에는 기술적, 계산적 측면뿐만 아니라 특히 사회적, 인간적 고려 사항이 포함되기 때문입니다. (2023년 4월 5일) 나는 벤지오의 말을 이렇게 해석한다. ‘챗GPT가 인간을 모방하는 것이 목표라면, 먼저 속도를 늦추고 틀릴 것을 예상하는 법을 배워야 한다.’
_ 10장 챗GPT가 메타인지를 시작하면 우리는 어떻게 될까? 163쪽
리터러시는 문자화된 기록을 통해 지식과 정보를 획득하고 이해할 수 있는 능력을 말한다. 그러나 유네스코는 현대 사회에서의 리터러시는 텍스트로 매개되는 디지털 세상을 이해하고 해석하며 의사소통할 수 있는 수단이라고 정리한다. 리터러시 의미가 이렇게 확장되는 배경에는 애초에 리터러시 교육을 시작한 중요 목적이 사회로부터 소외되지 않고 평등한 지위를 획득하기 위한 정보 접근성을 높이는 데 있었기 때문이다. (중략) 마찬가지로 현대 사회를 변화시키고 있는 인공지능에 대한 이해(이 이해는 기술적인 것뿐 아니라 사회에 미치는 영향까지 전반적인 이해를 의미한다), 구체적으로 챗GPT의 원리와 문제에 대한 이해는 이 사회의 중요 기술을 더 잘 활용하고 그것이 일으킬지 모를 문제로부터 자신을 보호하는 데 바탕이 된다.
_ 11장 우리에게는 AI리터러시가 필요하다 178쪽
그래서 의미를 이해했느냐 혹은 생각하고 있느냐라는 주제는 항상 논쟁거리가 될 수밖에 없다. 챗GPT의 등장, 혹은 딥플이나 구글 번역 혹은 파파고Papago의 등장은 이런 질문, 즉 인간이란 무엇인가, 인간이 생각하고 이해한다는 것은 무엇인가라는 질문을 계속 묻게끔 하는 철학적인 상황을 불러온다. (중략) 이러한 문제의식 없이, 표절을 하거나 남의 답안지를 베껴서 좋은 학점을 받게 되는 것이 큰 문제라는 식으로 논점을 좁힌다는 데서 불만이 생기는 것이다. 물론 윤리도 중요하다. 하지만 더 큰 쟁점이 있다. 이 지점에서 진짜로 물어야 할 것은 결국 대학에서 배워야 하는 능력이라는 게 무엇이냐일 것이다. 교수들이 이 능력을 키워주는 문제에 대해 별 고민도 하지 않고 딱히 대안도 없다면, 도대체 대학의 존재의 의미는 무엇이고, 나아가 교육의 의미는 무엇인지 물어야 할 것이다.
_ 12장 챗GPT가 던지는 철학적 물음들 200쪽