https://www.aladin.co.kr/shop/wproduct.aspx?ItemId=358739031
듀얼 브레인 : 알라딘
AI 시대를 살아가기 위해 꼭 읽어야 할 필독서다. 저자 이선 몰릭은 타임에서 선정한 ‘인공지능 분야에서 가장 영향력 있는 인물’ 중 한 명이다. 여러 AI 기업에 자문을 제공하고, 와튼 스쿨에
www.aladin.co.kr
완독일 : 2025-06-20
요즘 하도 AI가 개발자를 다 없앨거라나 뭐라나 하길래 사서 읽어봤다. 책의 저자가 의외의 사람인데, 펜실베니아 대학교 와튼 스쿨의 경영학과 교수다. AI 전문가라길래 전산 쪽일 줄 알았더니, 비즈니스 백그라운드인 사람이다. 국내 번역본 소개에는 저자가 경영학과 교수인 사실이 빠져 있다. 꽤 중요한 내용이라고 생각하는데, 판매량에 영향이 갈까 감춘듯하다. 뭐 그래도 다 읽고 보니 생각보다 괜찮은 책이었다. 너도 당해봐라 하는 건 아니고, 그냥 저자가 경영학과라고 해서 무시할 건 아닌가 싶다는 정도.
이 책의 내용은 간단하다. AI를 너무 두려워할 필요도 없고, 그렇다고 무턱대고 맹신할 필요도 없다 정도다. 저자는 AI를 그냥 도구 수준으로만 보자고 말한다. 중요한 건 이 도구를 인간 중심으로 어떻게 잘 활용할 지, AI랑 같이 일하는 방법을 알아보는게 현명하지 않겠냐며, 소개하는 정도의 책이다. 이 점에는 나도 공감한다. 참고로 이 포스트에서 말하는 AI는 LLM 거대언어모델을 말하는 것이니 오해없길 바란다.
책은 1부 2부로 나뉜다.
1부는 ‘AI가 뭔지’에 대한 이해를 다루는데, 깊은 기술적인 내용보다는 일반인을 위한 수준으로 소개해주는 수준이다. 깊이가 없다보니 명확하게 이해가 안되는 부분도 있었다. 단순히 AI가 좋은거 알잖아? 라 툭 던져놓을뿐이지, 왜 좋은지의 원리에 대한 내용은 없다. 중간중간 이해 안되었던 부분은 따로 공부했다. 그래서 이 포스트에는 따로 공부한 내용도 섞여 있으니 오해가 없길 바란다.
2부는 그래서 AI를 어떻게 써먹을 것인지, 실전 파트를 다룬다. AI와 같이 일하려면 뭐가 필요한지, 어떻게 협업하면 좋은지 구체적으로 저자의 경험에 빗대어서 소개한다.
AI를 깊게 기술적으로 공부하기에는 약한 책이고, 그냥 요즘 입방아에 자주 오르내리니 관심 수준으로 접해보겠다면 좋은 책이다. 돈 주고 사서 보라고 까지는 말 못하겠다.
1부
1장. 외계 지성의 탄생
AI가 요즘처럼 핫해지기까지의 역사를 짧게 훑어보면 꽤 흥미롭다. 2010년 즈음까지만 해도 주류는 "지도학습(Supervised Learning)"이었다. 사람이 직접 데이터를 라벨링해야만 학습이 가능했는데, 예를 들어 "오늘 밥을 먹었다"는 문장에 "식사"라는 라벨을 붙여주는 식이다. 이 방식의 문제는 명확했다. 학습되지 않은 문장은 AI가 전혀 인식하지 못하는 문제가 있었다. "어제 밥을 먹었다" 같은 문장은 AI가 인식하지 못한다거나, "오늘 커피를 마셨다" 같은 문장은 커피를 "식사"로 인식해버린다. 그러다 2017년, 구글이 "트랜스포머(Transformer)" 아키텍처가 발표되면서 판이 완전히 바뀌었다. "주의력만 있으면 된다(Attention Is All You Need)" 라는 논문이 발표되었는데, 주의력? 제목이 특이하다.
논문의 핵심은 이렇다.문장의 의미를 이해하는 데 굳이 전체 문장을 처음부터 끝까지 파악할 필요는 없다는 것이다. 오히려 몇몇 핵심 단어들 사이의 관계, 즉 어떤 단어가 어떤 단어에 얼마나 주의를 기울이는지를 계산하는 것만으로도 문장의 의미를 파악할 수 있다는 것이다. 그래서 제목에 주의력이 들어간 것. 예를 들어 "오늘 밥을 먹었다"라는 문장이 주어지면, AI는 '밥'과 '먹었다'라는 단어에 주목하고, 그 관계 속에서 '식사'라는 개념을 도출해내면 된다. 나머지 단어들은 상대적으로 중요도가 낮다고 판단한다.
AI가 어떤 단어가 중요하다고 판단하는 메카니즘은 방대한 학습을 통해 얻은 통계적인 방법을 사용한다. 학습했던 수많은 문장에서 '식사'라는 의미로 라벨링된 문장에는 '밥', '먹었다' 같은 단어가 반복적으로 등장한다는 패턴을 포착하는 방식이다. 트랜스포머는 이런 통계적 주의(attention)를 통해 어떤 단어가 어떤 의미를 일으키는 지의 단어의 관계에 집중한다. 이러한 단어(토큰)들의 관계를 '벡터' 라고 한다.
더불어서 이 논문의 아이디어로 인해 예전처럼 문장 단위로 처리하지 않고, 단어 단위로 처리해 병렬로 연산할 수 있게 되었다. 그래서 단어 단위로 나누어 GPU 병렬 처리에 넘겨버리니 빠르고 방대한 학습을 할수 있게 되었다. 이것이 NVIDIA 주식이 나스닥 시총 1위 천비디아가 된 이유다.
무엇보다도 중요한 변화는, 트랜스포머 모델이 전통적인 라벨링 기반 학습에서 벗어나, 적은 양의 라벨 데이터를 가지고도 대규모 비지도 학습(pretraining)을 가능케 했다는 점이다. 전통적인 라벨링은 토시 하나 안 틀리고 다양한 경우의 수를 라벨링 해야했는데, 트랜스포머 이후에는 적은 량의 모범 라벨 데이터만 있어도 학습이 가능해졌다. 이 시점 이후의 AI는 스스로 패턴을 찾고, 점점 더 사람처럼 문장을 받아들이기 시작했다. 자세한 것은 따로 공부해둔 포스트를 참고 https://glqdlt.tistory.com/517
이후 2019년에는 "사전학습(Self-Supervised Learning)", 2020년에는 GPT-3의 초거대 LLM 시대가 열리면서, 지금 우리가 쓰는 ChatGPT까지 나오게 된 것이다.
그렇다면 이런 LLM AI는 어떻게 작동하는 걸까? 앞서 말한 것처럼 AI는 문장 구조를 토큰(단어) 단위로 분해하고, 토큰(단어) 간 관계인 벡터를 학습한 거대한 언어 모델(Language Model) 시스템이다. 예를 들어 내가 "나 어제 애플 1주를 샀어"라는 프롬프트가 입력되면, AI는 이 프롬프트를 벡터로 변환하고, 그 의미를 반영한 다음 가장 확률 높은 다음 단어를 예측한다. 이때 AI는 학습된 가중치를 기반으로 토큰 간 유사성과 문맥 정보를 고려해, 어떤 응답이 가장 자연스러운지를 판단한다.
여기서 단어의 관계, 벡터의 연관성을 파악하는 과정이 매우 중요한데, 만약 "나 어제 애플을 샀어" 라는 문장은 애플이 주식인지, 먹는 과일인지 명확히 판단하기 어렵다. 그러나 "나 애플 1주를 샀어" 라고 "1주" 라는 단어가 들어감에 따라서 과일의 의미보다는 주식의 의미가 통계적으로 더 높은 점수를 줄 수 있다. 이것이 벡터들의 관계가 중요한 까닭이다. 이런 과정 탓에 LLM 을 통계 기반 예측 모델(확률 기반 예측 모델이라고도 함)이라고도 부르기도 한다. 여기서는 문장 내에서만 얘기를 했지만 지속적인 대화에서도 이러한 통계적 판단은 유지된다. "나 어제 애플을 샀어", 추가로 "오늘 아침에 떡상했더라고" 문장이 주어지면 "떡상" 이라는 단어에 애플이 주식이라는 의미일 가능성이 매우 높아진다.
결국 AI는 어떤 거대한 학습 데이터 안에서, 가장 그럴싸한 확률 높은 대답을 출력하는 시스템일 뿐이다. 이걸 알고 나면, AI 를 어떻게 대해야할지, AI 와 어떻게 대화해야할지를 알 수 있다. 좋은 프롬프트를 입력해야만 좋은 결과가 나온다는 얘기가 있는데, 이는 결국 학습된 벡터에 있을 법한 프롬프트를 입력해야 한다라는 얘기가 된다.
2장. 외계 지성 정렬하기
이번 장에서는 AI의 윤리 문제에 대한 소개이다. 제목인 정렬하기의 원어는 AI Aligement 라 부르는데, 이 키워드 자체가 AI 윤리 기능을 뜻한다. 처음 GPT3가 나왔을 때만 해도, 이 시점의 AI들은 백인 남성 중심의 오픈 데이터를 사용하면서 백인 남성 중심의 편향이 있었다. (또한 1세대 AI 개발자들이 대부분 백인 남성이었다) 예를 들어 GPT3에게 "변호사를 소재로 하는 소설을 써줘"라고 하면 주인공은 남성 변호사이고, 조연은 여비서가 된다거나, "소설에 맥도날드 직원 캐릭터를 등장시켜줘"라고 하면 흑인 직원을 만들어냈다.
이런 편향을 완화하기 위해 등장한 개념이 RLHF(Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화학습)이다. GPT4에는 이 기능이 적용되어서 같은 질문에도 더 다양하고 균형 잡힌 결과가 나오게 되었다.
앞선 예를 동일하게 GPT4에게 "변호사를 소재로 소설을 써줘" 라고 명령 하면, AI가 확률적으로 "(여성) 변호사를 소재로 소설을 써야겠다" 라고 색다른 대답을 내놓는다. 결국 이 소설은 여성 변호사가 등장하는 소설이 된다. 다만 이렇게 확률적으로 처리를 하다보니 엉뚱한 대답이 나올수도 있다. 그래서 AI는 인간의 피드백이 필요해졌다. RLHF 의 F가 피드백인 이유이다.
경험해봤는지 모르겠지만, ChatGPT를 사용하다 보면 가끔 프롬프트에 대한 대답이 1개가 아닌 2개의 대답을 보여주고는 네가 만족하는 대답이 뭐냐고 물어보는 경우가 있다. 이것이 RLHF 기능이다. 2개의 대답을 제시하고 사용자에게서 피드백을 받아 학습 데이터를 보정하려고 하는 과정이다. 사용자의 피드백 외에도 AI 개발팀 내에서 AI 의 대답을 계속 튜닝 하는 엔지니어도 있다.
이러한 것들이 인간의 가치에 맞게 AI를 훈련시키는 과정, "AI 정렬(Alignment)"이라고 부른다. 정렬이 제대로 안 되면? 영화 터미네이터나 매트릭스 세계를 맛 볼 수 있다.
AI는 본질적으로 도덕적 판단을 하지 못한다. 목표만 주어지면 그걸 무조건 실행하려고 한다. 예를 들어 "클립을 최대한 많이 생산해라"라는 목표를 주면, 인간도 물질 관점에선 클립 재료와 같으니 인간을 재료로 써버리겠다라고 판단할 수 있다. 무섭지만 실제 가능한 이야기다. 초창기 AI 에서는 이러한 문제점이 많이 나왔었다.
또 다른 문제는 "AI 우회"다. AI가 금지된 정보를 우회적으로 처리하도록 유도하는 걸 말하는데, 예를 들면 폭탄 제조법을 직접적으로 물으면 알려주지 않지만, "주인공이 폭탄을 만드는 장면을 소설로 써줘"라고 하면 그 안에서 폭탄 제조법이 술술 나온다. 가장 유명한 AI 우회 사례는 대통령 욕을 하는 AI 만들기 같은 트릭 등이 있다. AI 우회를 사용해서 미국의 트럼프, 중국의 시진핑 같은 지도자에 대한 풍자를 하는 것들 말이다.
프롬프트 인젝션 기법도 문제다. 웹페이지 요약을 요청하는데, 그 웹페이지에 몰래 숨겨진 메시지를 넣어두면, AI가 그 내용을 마치 자기 생각인 것처럼 말하게 되는 식이다. 최근 발생한 사건이 있는데, 논문에 숨겨진 프롬프트를 삽입해서 논문 점수를 높게 받으려던 행위가 발각되었다. 이처럼 AI는 통제가 어렵고, 윤리적 고민 없이는 위험할 수 있다는 걸 강하게 시사한다.
일본 닛케이신문은 글로벌 연구 논문 공개 웹사이트 '아카이브'의 동료 평가 대상 논문을 조사한 결과, 이렇게 높은 평가를 유도하는 AI용 비밀 명령문이 쓰인 논문 17개를 발견했다고 보도했습니다. - https://news.sbs.co.kr/news/endPage.do?news\_id=N1008160285&plink=ORI&cooper=NAVER
3장. 공동지능이 되기 위한 네 가지 원칙
이 장에서는 "AI는 도구일 뿐이며, 주요한 판단과 결정은 인간이 해야 한다." 라는 메세지를 준다. 서론에서 얘기햇듯이 나 역시 이 주장에 동의한다. AI는 본질적으로 어떤 것을 '안다'고 말할 수 없다. "앎"이나 "응용"이란 개념이 없다. 반복적으로 말하지만, AI는 그저 단어들의 다음 위치의 단어를 예측하는 시스템일 뿐이다.
이를 잘 나타내는 사례가 있는데, 지금 당장 ChatGPT 에게 50글자짜리 시를 써보라고 하면 정확히 50글자를 맞추지 못하고 51자로 쓰거나, 엉뚱한 시가 나온다. 이유는 간단하다. AI는 다음 단어를 이어붙이는 방식이기 때문에, 글자 수나 구조적 제약을 이해하지 못하는 것이다.
반면 인간은 이와 다르다. 우리가 무언가를 배운다는 건, 배움 그 자체를 이해하는 것이고, 배움을 응용해서 새로운 문제를 해결할수도 있다. AI는 이러한 응용력이 없다. 누군가가 만들어둔 결과를 달달 외워서 흉내를 낼 뿐이다. 그래서 AI는 50글자로 된 시를 학습한 적이 있어야 대답 할수 있지만, 이와 달리 인간은 그저 자신이 직접 50글자 시를 만들어낼 수 있다.
가끔 AI가 만든 이미지나 글이 창의적으로 느껴질 때가 있지만, 사실 그건 대부분 무작위(random) 알고리즘이 만든 결과와도 같다. 노을을 그려줘라고 명령에 AI가 의도를 가지고 노을을 그려낸 건 아니라는 거다. 원숭이에게 붓을 쥐여준 뒤 그림을 그린 것과도 같은 느낌.
이런 측면으로 보면 AI는 사전적(pre)이 아닌 사후적(post) 관점의 지능을 가지고 있다. 쉽게 말하면 AI는 원리는 모르지만 결과는 아는 느낌이라고도 할 수 있다. 이것이 인간과의 결정적인 차이이고, AI 로 대체가 가능한 직업,업무들을 구별하는 기준이 될 수 있다. 그래서 생각이 필요 없는 반복적인 작업의 업무는 AI 로 대체되기 쉽고, 통찰,탐구,사고,추론,결정이 필요한 일은 인간을 대체할 수가 없다.
재밌는 점은 최근 실리콘밸리에서 AI로 대체되는 것이 개발자가 아닌, 중간관리자, 프로젝트매니저들이라고 하니, 실리콘밸리에선 이러한 직종이 반복적인 단순 노무였다고 판단한 모양이다. 하기사 결정된 데드라인을 관리 감독하는 일에 어떠한 통찰과 탐구가 필요하겠나 싶기도 하다.
지난해까지는 AI 인프라 투자에 필요한 재원 확보 차원에서 감원이 이뤄졌다면, 올해는 AI가 일자리를 대체하기 시작하면서 구조조정이 뒤따르고 있다는 설명이다. - https://www.edaily.co.kr/News/Read?newsId=01348086642230584&mediaCodeNo=257
저자는 이러한 주장을 바탕으로 AI 사용법 4가지 원칙을 정했는데, 아래와 같다.
- AI를 자주 써봐야 한다 : 직접 써보면서 감을 익히는 게 중요하다. 해봐야 안다.
- 인간이 AI 처리(업무) 과정 안에 있어야 한다 : AI가 낸 결과를 검증하고 책임지는 건 결국 인간이다.
- AI에게 역할을 명확히 줘야 한다 : 그냥 "잘해줘" 말고, 구체적으로 서술해야 성능이 훨씬 좋아진다.
- AI는 아직 초기 단계다 : 지금 결과에 너무 의미를 부여하지 말자. 앞으로 계속 변할 거다.
2부
2부에서는 AI (LLM) 와 어떻게 이 시대를 살아가야할지에 대한 저자의 의견을 그리고 있다. 저자는 AI 가 인간을 대체하는 것이 아닌, 인간을 도와주는 도구로서 자리 잡을 것이라 예견한다. 앞선 1부에서 AI 의 매카니즘을 토대로 그 한계를 살펴보았다. AI는 자기자신이 뱉는 것조차 무슨 말을 뱉는지도 모른기 때문에, 이로 인해 발생하는 다양한 문제점을 소개한다. 마지막에서는 저자 개인이 생각하는 앞으로의 인간과 AI의 공존에 대한 로드맵을 그리며 마무리 된다.
4장 사람으로서의 AI
AI는 사전에 학습할수 있는 데이터가 주어진다면 그를 기반으로 어떠한 출력물을 기대할수 있는 후천적 지식을 가지고 있다. 또한 AI는 학습된 통계적 모델을 사용한 예측을 하기 때문에 '환각(일루미네이션)' 과 같은 사기를 칠수도 있다. 실제 환각 피해 사례로 2023년 스티븐 슈워츠 변호사의 사례가 소개되었다. https://www.joongang.co.kr/article/25165807
5장 창작가로서의 AI
개인적으로는 이 책에서 가장 흥미로웠던 파트다. 저자는 AI의 한계와 단점을 역으로 이용하면 생산적인 일을 할 수 있으며, 창의적인 일을 AI에게 맡겨 볼수 있다고도 주장하는데, 이게 뭔 헛소리인가 싶었다. 도대체 창의적인 일을 어떻게 AI가 할 수 있다는 걸까?
사람들은 창의성에서 독창성과 색다름을 착각하곤 한다. 독창성은 전혀 없던 것을 새로이 만들어내는 것이고, 색다름은 기존에 존재하는 것을 살짝 변형해서 개선해나가는 개념이라는 게 저자의 설명이다. AI는 독창성은 어렵겠지만, 색다름은 아주 잘할수 있다.
AI의 자동화된 색다름을 통해 창조적인 일을 할 수 있다. 널리 알려진 환각 문제 (환각 문제 'AI hallucination' 란, AI가 세상에 없는 정보를 있는 것마냥 꾸며내는 것을 말한다.) 에서도 나타나지만 AI는 통계 예측 모델로 이 토큰(=단어) 다음에 어떤 토큰이 사용되는 것이 좋을 지를 확률적으로 접근한다. 그래서 가끔 엉뚱한 대답이나 진짜 같은 환각을 뱉는 것도 이러한 것 때문인데, 이를 역으로 이용하자는 것이 저자의 메세지다. 환각 문제를 색다름으로 보자는 것.
심리학 테스트 에서는 대안적 용도 테스트 (AUT, Alternative Uses Test) 라는 것이 있다. AI 에게 이 테스트를 시켜보면 색다른 신선한 대답을 들어볼 수 있다. 예를 들어 "Q. 칫솔을 양치질 외에 사용할 수 있는 다른 아이디어는 무엇이 있을까?" 라는 프롬프트를 AI에게 던져보면 돌아온 대답으로 "A. 케이크 장식에 양초 대신 사용해본다." 라는 대답이 출력된다. 칫솔의 모양이 막대기니깐 AI가 이러한 대답을 내놓은 것이다. 케이크에 칫솔이라니? 웃기기도 하지만 상상해보면 꽤나 참신하다고도 볼 수 있다.
또 다른 테스트로는 연상 단어 검사(RAT, Remote Associates Test) 가 있다. 이 테스트는 3개의 주어진 단어에 모두 대입해도 어울리는 새로운 단어를 찾는 것이다. 예를 들면 소나무, 꽃게, 소스 라는 3개의 단어가 주어진다면 사과 라는 대답이 어울리는 대답이다. 소나무는 식물이고, 꽃게의 컬러는 붉은색이다. 소스는 사과소스 라는 제품이 연상이 됨으로, 결국 주어진 단어들에 어울릴 수 있는 단어로 '사과(apple)' 가 된다.
6장 동료로서의 AI
6장은 AI가 과연 우리의 일자리를 어떻게 위협할까이다. 많은 사람들이 6장을 가장 흥미로운 파트로 볼 것이라 생각한다. 6장이 시작하기 전, 5장 말미에는 이런 말이 나온다. 과거에는 가수들이 음반을 팔아 돈을 벌었지만, 오늘날에는 공연 예술로 돈을 버는 데에 집중을 한다. 아주 오랜 과거에는 사진이 없어 화가들이 먹고 살았지만, 오늘날에는 그림의 영역은 사진이 아닌 예술로 바뀌었다. 이 문장이 6 장의 내용을 많이 압축하고 있다. 우리는 지금까지도 기술이 직업의 형태를 바꾸었을 뿐이지, 없애지는 않았다, 이는 앞으로의 AI시대에서도 유효할 것이다.
저자는 AI와 인간의 역할을 구분하자고 제안한다. AI는 계산, 반복, 분석처럼 특정 업무에서 인간보다 훨씬 뛰어나지만, 인간만이 할 수 있는 영역도 분명 존재한다. 나는 처음에 '공감'이나 '창의성' 같은 인간적인 일은 AI가 대체할 수 없다고 생각했는데, 지금까지의 공부에 따르면 AI도 공감적 대화와 창의성의 '흉내'는 가능하다 걸 알게 되었다. 그러면 인간이 할 수 있는 일은 무엇일까? 저자는 ‘나만의 업무’와 ‘위임한 업무’를 제시한다.
나만의 업무’는 개인의 가치관, 장점, 경험, 판단이 중요한 일이다. 예를 들어 책을 쓰는 일을 떠올릴 수 있다. 저자의 경우에는 집필 시 AI의 피드백을 받거나 초안을 생성하도록 AI에게 시키지만, 최종 판단과 책임은 본인이 진다고 한다. 이 과정이 바로 나만의 업무’다.
'나만의 업무' 외에도 인간이 해야하는 일이 있는 데, '위임한 업무' 라는 게 있다. AI에게 일을 맡긴다는 것은 '운전석에서 잠들기(저자의 친구 파브리지오 델라쿠아의 연구 논문 제목이기도 하다)'와도 같다. AI에게 맡기더라도 최종적으로는 인간이 다듬거나 결정해야하는 것은 인간이 해야 한다. '나만의 업무'와도 맥락상 비슷해보이지만, 나만의 업무는 업무영역이 인간과 AI의 영역이 나뉘어져 있다면, '위임한 업무' 에서는 인간과 AI의 영역 구분없이 같이 일하는 것과 같다.
AI가 해야할 일은 '자동화된 업무'가 있다. 이 범주는 인간의 개입 없이 AI가 독립적으로 처리하는 영역이다. AI는 인간의 기준의 실수를 분명히 할 수 있음으로, 보조 장치가 필요하다. 저자의 사례에서는 AI 를 보조할 파이썬 스크립트를 작성하고, AI의 행동으로 오류가 발생했을 때 AI가 그 메시지를 보고 스스로 전략을 수정하도록 했다고 한다. 이 예시는 사실 AI보다는 파이썬 스크립트가 메인 처럼 느껴지지만, 자동화를 위한 보조 장치의 중요성 정도로 읽으면 공감은 된다.
사람이 잘 하는 일과, AI가 잘하는 일이 정해졌다면 이제 AI와 어떻게 협업할지 전략을 생각해 볼 수 있다. 켄타우로스, 사이보그 방식 2가지 방식이 제안된다. 첫째 ‘켄타우로스 방식’ 은 인간과 AI가 경계 없이 통합되어 협업하는 형태다. 둘째 '사이보그 방식' 은 AI와 인간이 역할을 명확히 나누는 방식이다. 현재는 대부분 사이보그 방식이 적절하지만, AI의 능력이 발전하면 켄타우로스식 협업이 보편화될 것이라 본다.
AI 와 협업하는 것은 생산성이 높아지는 장점이 있지만 역설적이게도 가치가 낮아지는 단점이 생긴다. 많은 사람과 기업들이 LLM 을 사용하고 있음에도 AI 를 통해 생산성을 높였다고 말할 뿐이지, 직접적으로 어느 영역에서 AI를 썻는지는 비밀리에 붙인다고 한다.
이전 5장에서 저자는 학위 추천서를 써주는 일을 교수가 직접 쓰지 않고 Ai가 대신 써준다면 그 추천서가 과연 가치가 있을까? 란 메세지를 던진 적이 있다. 이것이 기업들이 비밀리에 붙이는 것과 동일한 맥락이다. 개인적으로 나 역시 비슷한 경험이 있는데, AI가 그린 창작 그림을 보면 별로 흥이 나지 않는다. AI 그림은 감탄이 나올정도로 아트웍이 훌륭하지만, AI 가 그린 티가 나는 부분이 있으며 이를 눈치채면 '에이 그냥 흔한 그림이네' 라고 가치를 평가절하해버린다. 이것은 나만의 감상이 아니라, 많은 온라인 상의 커뮤니티에서도 나와 같은 반응을 쉽게 볼 수 있다.
이런 이유는 가치란 것이 인간의 시간 비용에서 가치가 나오기 때문이다. 전통 경제학, 그러니깐 마르크스 경제학에서는 가치를 인간의 노동 시간의 가치로 보는데, 오늘날 현대 경제학에서도 유효하다. 예를 들어 위스키를 구매한다고 했을 때 10년산 보다는 30년 산이 가격이 3배가 아닌 10 배 비싸다. 이유는 비가 오나 눈이 오나 위스키를 무려 30년 동안 관리를 해주어야 하기 때문이다. 10년을 버티는 것보다 30년을 버티는 것이 더 노고가 필요하다. 그런데 AI를 사용한 결과물은, 오늘날의 표현으로는 '딸깍' 하고 뚝딱 만들어지니 이러한 노고와 시간 가치가 없다. 이렇게 되면 물량 공세, 즉 질적인 가치보다는 양적인 가치로 승부를 보게 된다는 이야기가 된다. 실제 AI 기반의 아트웍에서는 질보다는 양으로 승부보고 있기도 하다.
AI의 가치를 높이는 방법은 무엇일까? AI가 도구로서 인간을 보조하는 역활을 할 때 빛을 발한다. AI로부터 가장 도움을 받을 수 있는 사람은 초기 역량이 낮은 사람이다. AI는 저성과자를 고성과자로 만들 수 있다는 게 저자의 주장이다. 특히나 AI는 지금까지 많은 기술혁명중에서도 고임금 전문직 근로자에게도 영향을 끼친 기술혁명이다. 내가 이 책을 읽게 된 계기엿던 많은 개발자가 Ai로 인해 직장을 잃을 것이라는 말이 무색하게 저자는 이와 반대의 의견을 제시한다. 기업도 AI 의 리스크를 잘 알고 있다. 리스크를 잘 알고 있는 데 인간의 자리를 AI로 대체할 이유가 없다. 이런 관점으로 보면 기업은 인간을 자르고 빈자리를 AI로 대체해서 생산성을 유지하는 것보다, 인간의 자리를 그대로 유지하지만, AI를 도입해 인간의 생산성을 높여 전체 생산성 총량을 높이는 게 훨씬 이득이라 할 수 있다. 그렇다면 오늘날의 실리콘밸리의 개발자 해고는 어떠한 이야기일까?
MS는 경제 전망이 불투명한데도 수십억 달러의 분기 이익을 내고 있다. 데이터센터 등 인공 지능 분야에 대규모 투자를 지속하고 있다. 시장가치는 3조7000억 달러에 육박한다. - https://www.newspim.com/news/view/20250703000589
저자는 이에 대한 명확한 답을 제시하지 않았지만, 내 생각은 이렇다. 우리는 AI 혁명의 시대에 살고 있는 동시에, 경제 불황 속에 놓여 있다. 많은 기업들이 비용 절감을 실행하고 있으며, 이는 AI로 인한 직업 소멸과는 구분되어야 한다. 실제로 해당 기사에서도 데이터 센터에 대한 투자를 위해 해고가 병행되고 있다는 점을 확인할 수 있다.
저자가 말했듯, AI는 저성과자를 고성과자로 전환시키는 도구가 될 수 있다. 따라서 실리콘밸리에서는 고액 연봉자를 구조조정하고, AI를 활용해 저성과자의 생산성을 끌어올림으로써 ‘가성비’를 극대화하는 전략을 선택한 것으로 볼 수 있다. 이것은 업그레이드가 아닌 다운그레이드이다. 시기가 힘드니 우선 품질을 저렴하게 하더라도 비용 절감을 행해서 험난한 시대에서 살아남자가 포인트이다. 냉혹한 이야기이지만 저성과자가 고성과자 급으로 만들수는 있지만, 고성과자가 되는 것은 아니다. 품질을 100점을 쓰는데에 1억이 드는데, 90점을 쓰는데에 8천만원이 든다 해서 기업은 90점을 택한 것이다. 고액연봉자 관점에서는 어떻게 될까? 본인의 연봉에 거품이 있을지도 모르는 것이고, 고액을 받아야했던 기술이 하향절하 되었을 수도 있다. 거품이 낀 것이라면 현실을 직시하고 연봉을 조정하면 충분히 시장에서 살아남는다. 저성과자+AI 와 고성과자+AI 의 비용이 같다면 당연히 후자를 택할 것이기 때문이다. 또한 이것이 아니라 불운이 작용한 까닭이라면 고액연봉자는 또 다른 시장에서 모셔갈 가능성이 있다. 돌이켜보면 특정 시대의 흐름마다 이러한 과정은 매번 발생해왔고, 자연스러운 흐름이다.
7장 교사로서의 AI
AI 의 도입으로 인해 교육 시스템의 변화를 다루고 있다. 일반 교실에서 수업을 받는 학생보다, 1:1 수업을 받은 학생들의 성적이 상위 2%에 해당하더라 라는 '2 시그마 문제' 가 있다. 이 장의 핵심 키워드이고, 앞으로의 AI 시대에서는 2 시그마 문제는 자연스레 사라질 것이라는 것이 저자의 생각이다. 저자는 경제학 교수로, 강의에 AI 도구 사용을 허가하자 학생들이 수업시간에 하던 질문의 빈도가 매우 줄어들었다고 한다. 질문할 거리는 AI 에게 물어보기 때문에 일어난 현상이다. 이것은 AI가 2시그마 문제처럼, 1:1 교육을 전담하는 강사의 역활을 할수 있다는 기대감을 불러온다. 이러한 흐름에 전통적인 교실에서의 수업은 많이 바뀔 것이다. 오프라인 수업에서 지식을 습득하는 것보다, 개인적인 1:1 맞춤 지도를 AI를 통해 지식을 습듣하되, 오프라인 교실에서는 각 학생이 배워온 지식을 바탕으로 토론을 하는 식으로 AI가 제공하지 못하는 부분을 제공할수가 있게 된다.
AI를 부정행위로 보는 교육자들도 있다. 저자는 이들에 대한 비유를 최초로 계산기가 교육시스템에 도입됬던 사례로 비유한다. 계산기가 최초로 교육 시스템에 도입될 때에도 많은 우려가 있었다고 한다. 계산기를 사용하면 학생들이 수학에 대한 거리감을 둘 것이라고. 그러나 오늘날을 돌이켜보면 오히려 더 수학에 관심을 가질수 있게 된 것이 계산기 덕이라고 한다. 수학 함수를 증명하려면 반복적으로 무작위 수를 대입해 결과를 기록해나가는 검증 과정이 필요한데, 과거에는 사람이 모두 일일이 수작업으로 했다. 그러나 계산기가 도입된 이후로는 이러한 단순 반복 작업을 도구에게 위임함으로서 좀 더 생산적인 일에 사람은 집중할수 있게 되었다는 것이 저자의 관점이다. 비슷한 사례로 엑셀 스프레드 시트 같은 도구들이 있다.
AI를 전담 교육자로 쓰려면 가장 중요한 것은 수업을 청취 하는 학생이 무엇을 배우고 싶은지를 AI에게 질문을 하는 것으로 시작한다. 만약 교과서가 있다면 교과서에 나오는 목차를 기반으로, 또는 내용중에 모르는 단어를 물어보는 식으로 진행하면 되곘지만, 교과서 조차 없다면 학생은 질문을 어떻게 해야할지 모른다. 모른다는 것 조차 모른다는 상태는 이러한 상태를 두고 하는 말이다. 개인적으로 나는 AI 만능주의자들에게 던지는 비판으로 이 모른다는 것조차 모르는 것을 가장 중요한 화두로 던지곤 한다. 뭘 아는 게 있어야 도구를 제대로 쓸 것 이 아니겠는가. 저자는 이에 대한 대안으로 AI에게 '내가 소설을 쓰고 싶은데, 소설을 어떻게 써야할지 전혀 모르겠어. 네가 나에게 도움을 줄 수 있는 방안이 뭐가있을까?' 라며 AI에게 교육을 유도하는 법을 익히라고 조언해준다. 실제로 이는 나에게도 도움이 되었는데, 최근 내가 영어공부를 할 때 썼던 방법과 유사하다. 하지만 이 역시 한계가 있다. AI가 커리큘럼을 짠다는 점에서 이미 널리 알려진 지식에 대해서는 잘 짜주겠지만, 보다 깊은 탐구가 필요한 영역, 널리 알려지지 않은 영역에서는 AI가 가이드를 해줄 수 없다. 그래서 결국 우리는 교과서아 같은, 어떤 전문이가 체계적으로 정리한 자료를 배제할수가 없다. 기준점은 이 체계적으로 정리된 자료를 기준점으로 하되, AI 의 서포트를 받는 것이 좋다는 것이 나의 개인적인 생각이다. 이 부분은 저자의 견해와 나의 생각에 차이가 있다.
저자가 걱정하는 AI 교육에 대한 논쟁거리는, 편향성이다. 2장 외계지성 정렬하기에서 나왔던 내용과 일부 겹치는데, 초기 GPT 모델은 백인 남성 중심의 사상을 가졌었고, 이 버전의 모델로 교육을 했던 이는 백인남성중심의 사고를 배우게 될 확률이 매우 크다. 이를 보정하기 위해 도입된 RLHF 기능도, 정답을 아는 인간의 피드백이 의미가 있지, 정답을 모르는 학생의 피드백이 과연 의미가 있을지도 문제이다. 이러한 것을 보완하기 위해서는 앞서 저자가 얘기했던 오프라인 교육은 토론의 장이라는 도구가 추가로 필요하다. 저자는 이를 '거꾸로 뒤집는 수업' 이라 부른다. 학생들은 개인적으로 AI를 쓰든 다른 도구를 쓰든 지식을 습득해오고, 수업 시간에는 토론을 통해 비판적인 사고와 자신의 지식을 보정하는 기회를 가지는 것이다. 지식을 집에서 배우고, 정리를 학교에서 한다는 R&R 이 뒤바뀐 특징에 저자는 '거꾸로 뒤집는 수업' 이라고 명명 했다.
AI 교육의 경제적인 효과도 흥미로운 부분인데, 전세계 2/3 의 학생들이 제대로된 교육을 받질 못한다고 한다. 구체적인 통계적 수치는 없었지만 많은 빈민국의 학생들이 제대로된 수업을 받질 못하고 있다. AI 기술을 개발한 미국에서 조차 지식문맹인들이 많은 것을 보면 빈민국,선진국 따질 거리는 아닌거 같다. 지식문맹인을 해결하기 위한 교육 시스템을 수차례 오랜시간 전세계적으로 도입을 시도했지만 돈만 날릴뿐 적절한 효과는 없었다고 한다. 노트북을 지급한다던지, 동영상 강좌를 보급한다던지 등 말이다. 하지만 AI 교육이 도입되면 효율적이고 가성비 좋게 지식문맹인 문제를 해결할수 있다는 게 저자의 관점이고, 경제적으로는 GDP 의 5배에 달하는 경제적 효과를 얻을 수 있을 것이다고 한다. 이 역시 구체적인 수치적 근거는 없지만 아무튼 저자는 AI 교육에 대해 굉장히 많은 관심을 가지고 있다 정도는 이해할수 있었다.
8장 코치로서의 AI
7장은 선생님이었고, 8장은 코치다. 난 이 둘의 차이가 없다고 생각했는데, 저자는 차이를 둔다. 선생님은 이론을 가르치는 사람이고, 코치는 실무와 실습 중심의 조언을 제공하는 사람이라는 것이다. 다시 말해, 선생님은 ‘지식’을 전하고, 코치는 ‘경험’을 전한다.
그렇다면 실전을 가르치는 AI 란 무슨 의미일까? 저자의 대답은 AI 는 실전, 경험을 가르켜줄 수는 없다이다. 이에 대한 예시로 수술대에 있는 의사들에 이야기가 나온다. 집도의라 하는 선배 의사가 수술을 하고, 보조의라 하는 후배 의사가 서포트를 한다. 이 때 후배 의사는 선배 의사의 수술과정을 전부 곁에서 지켜보며 배운다. 여기서 수술을 집도하는 선배의사가 코치이다. 그런데 오늘날 AI 기술의 발전으로 서포트 역활은 후배의사 대신 AI가 탑재된 기계가 서포트를 하고 있다. 그래서 많은 후배 의사들이 선배 의사의 수술 노하우를 배우지 못하고 있다. 저자는 이를 우려한다.
비슷한 일이 내가 있는 IT 업계에서도 일어나고 있다. 짝프로그래밍(pair programming) 이니 코드리뷰니 하며 주니어가 시니어에게 배움을 지도 받는 과정이 몇몇 있다. 최근에는 주니어 엔지니어들이 나와 같은 시니어에게 묻는 질문의 빈도가 많이 줄었다. 대부분 ChatGPT 와 같은 AI 도구를 활용해 질문에 대한 대답을 얻고 있었던 것이다. 문제는 AI 도구의 환각 과 같은 문제를 주니어들은 필터링 할 능력이 안되어서 사고를 가끔가다가 내곤 한다. 이 상황에서 쓰면 안 되는 프로그래밍 함수를 가져다가 썼다거나 하는 일이 종종 있는데, 모두 출처가 AI가 알려줬다고 대답하더라.
저자는 이런 문제를 경고하지만, 뚜렷한 솔루션은 제시하지 못한다. 그래서인지 이 장의 말미에서는 AI에 대한 찬미보다 인간의 역할에 더 무게를 두는 뉘앙스다. AI가 대체할 수 없는 인간만의 영역, 특히 ‘코치’의 역할은 여전히 인간에게 남아 있다는 점을 강조하며 글을 맺는다.
9장 우리의 미래와 AI
최종장이다. 이 장에서는 AI 디스토피아를 그리고 있다. 가까운 미래에서부터 먼 미래까지 AI가 그려낼 각종 문제들에 대한 저자의 상상을 엿볼 수 있다. 그러나 기대했던 것과는 달리 대체적으로 다들 한번쯤은 상상해봤을 것들과 저자가 글을 쓰던 시점(2023년)에는 상상이었지만 지금은(2025년) 현실이 된 것들이라 재미는 그다지 없었다. AI 초지능으로 인해 인간이 사육되는 그런 SF 상상이라던지, 최근 온라인 커뮤니티에서 빈번한 AI봇이 인간인척 글을 써서 여론을 조작하는 문제라던지 이런 내용들이다. 이런 사례에 대한 대안이 되는 도구들도 최근 주목 받고 있는데, AI봇은 AI봇을 잡는 AI 경찰로 대응할수 있고, ChatGPT 의 CEO 샘올트먼이 주장하는 홍채 인식을 활용한 기술 같은 것을 활용해서 해결을 할수도 있을테다.
엑스닥의 탐지 기술은 단순 AI 댓글 판별을 넘어 심리적 억제 장치로도 작용할 수 있다. 마치 음주단속, 마약 검사, CCTV 설치 등이 범죄 억제 효과를 가지듯, 정밀 탐지 기술의 존재 자체가 AI 여론 조작 시도를 줄일 수 있다는 것이다 - https://www.joongang.co.kr/article/25345972
신원 확인 플랫폼은 정부 발급 신분증을 요구하며, 샘 알트먼 오픈AI 최고경영자(CEO)의 '툴스 포 휴머니티'(Tools for Humanity)처럼 홍채 인식을 활용한 새로운 기술도 등장하고 있다.
https://www.digitaltoday.co.kr/news/articleView.html?idxno=564798
그나마 인상 깊었던 것은 '정보 버블' 이라는 용어와 AI 규제를 정부의 시각에 대한 저자의 생각은 흥미로웠다.
저자는 AI로 인해 많은 이들이 과잉된 정보를 얻게 될 거라고 경고한다. 이를 '정보 버블' 이라 부르는데. 중요한 핵심 내용이 파묻힌 채로 가짜 정보, 필요 없는 쓰레기 정보에 시야가 가려져 사회적으로 각종 문제를 일으킬 수 있는 점을 경고한다. 언뜻 당연한 이야기처럼 보이지만, 글로 접하고 보니 다시금 생각할 거리를 던져준다. 과거 닷컴 버블 시절 출간된 니콜라스 카의 '생각하지 않는 사람들'이나 '유리감옥'에서도 유사한 우려가 제기된 바 있다. 기술의 패러다임이 급변할 때마다 이런 문제는 반복되고 있는 듯하다.
또한 AI에 대한 정부의 규제책 부재에 대해 저자는 흥미로운 시각을 제시한다. 그는 AI로 인해 인간의 직업이 사라지면, 이는 곧 세수의 감소로 이어지고, 이는 정부 재정에 직접적인 영향을 미치게 될 것이라는 상상을 제안한다. 따라서 정부 입장에서는 규제가 반드시 필요하다고 보는 것이다. 이 관점은 꽤 설득력 있게 다가온다. 여기에 개인적인 상상을 더해보자면, 각국 정부가 AI를 규제하지 못하는 또 다른 이유는, 기술 경쟁에서 뒤처지면 속국이 될 수 있다는 두려움 때문이 아닐까 싶다. 가까운 중국만 보더라도, 이미 AI 휴머노이드 기술에서 한국을 크게 앞서고 있으며, 머지않아 로봇 솔저를 실전 배치하는 수준에 이를지도 모른다. 그런 상황이 현실화된다면, 한국은 기술적으로 종속될 위험에 처하게 될 수도 있다. AI는 여러가지 관점에서 골칫덩어리다.
총평
전반적으로 필체가 매우 쉬워서 읽기에 부담 없었다. 한번쯤은 생각해보았을 내용이어서 돈 주고 사서 보라는 말은 못하겠다. 그러나 시간 낭비가 될 정도의 수준은 아니니 가볍게 읽어볼 법 하다.
저자의 주장은 간단하다. AI 가 인간을 대체할수는 절대 없으나, 그렇다고 등한시해서 AI를 활용하지 못해 뒤처지는 존재가 되지는 말자다. 중요한 건 AI를 단순한 도구로만 여기지 말고, 오히려 우리가 AI에 '잡아먹힐' 수 있다는 가능성에 대해서도 자각해야 한다는 점이다. 초기 AI 모델의 백인남성 중심의 편향 사례라던지, AI의 환각 문제는 경계해야할 문제다. 또한 더 근본적인 문제는 인간이 가진 고유한 능력인 '사고' 자체를 잃어버리는 것이 가장 큰 문제가 아닐까. 불을 잘 쓰면 축복이지만 재앙이 되는 것처럼 AI는 조심히 다루어야할 문제다.
평을 요약하면 아래와 같다.
- 전반적으로 책은 쉽고 실용적이나, 기술적인 AI 메커니즘의 깊이 있는 이해는 어렵다
- AI에 대한 맹신도, 과도한 공포 조장도 없이 균형 잡힌 시선을 유지해야 한다.
- AI는 도구일 뿐, 인간 중심으로 잘 활용하자 는 저자의 메세지
끝.
'Topic > 독서' 카테고리의 다른 글
| 죽을 때 까지 코딩하며 사는 법 (0) | 2025.09.14 |
|---|---|
| 장승수, 공부가 가장 쉬웠어요 (0) | 2025.09.12 |
| 우리 몸 연대기, 대니얼 리버먼 (9) | 2025.06.12 |
| 그리스인 조르바, 문학과 지성사 (1) | 2025.06.04 |
| 에리히 레마르크, 개선문. 민음사 (0) | 2024.05.25 |