
서점에 가면 AI에 관한 서적이 가득 차 있습니다. 매일 뉴스를 도배하고 관심 가는 주제이지만, 공급이 많아 어떤 것부터 선택해야 할지 모를 때 한 지인으로부터 이 책을 추천받았습니다.
책의 큰 줄기는 인공지능이 단지 새로운 도구가 아니라, 인간이 컴퓨터와 상호작용하는 방식 자체를 바꾸는 전환점이라는 관점을 제공합니다. 오랫동안 표준이었던 GUI 그래픽 유저 인터스페이스가 점차 중심에서 물러나고, 사용자의 의도와 상황을 읽어 대화로 일을 처리하는 맥락 인터페이스가 새로운 기본값이 될 것이라는 전망에서 출발합니다. 화면을 누르고 메뉴를 탐색하는 방식보다, 무엇을 원하는지 말하면 시스템이 알아서 다음 행동을 이어가는 방식이 더 자연스러운 인터페이스가 된다는 이야기입니다.
이 변화의 핵심 엔진으로 거대언어모델(LLM)이 등장하는데, 책은 LLM의 근본적 특성을 환각(Halluzination)이라는 키워드로 정리합니다. 환각은 멀쩡한 거짓말처럼 보이는, 그럴듯하지만 사실과 다른 문장을 만들어내는 현상입니다. 중요한 점은 이것이 예외적인 오류라기보다 모델이 작동하는 방식에서 구조적으로 생겨난다는 설명입니다. LLM은 참과 거짓을 판별하도록 학습된 존재라기보다, 방대한 문서에서 패턴을 학습한 뒤 주어진 문맥 다음에 올 법한 단어를 확률적으로 예측하는 트랜스포머(Transformer) 기반 시스템이며, 그래서 그럴듯함과 사실성은 분리될 수 없습니다.
그럼에도 챗GPT가 이전 생성형 모델들과 구분되는 지점은 정렬(Alignment) 전략에 있다고 말할 수 있습니다. 책은 인간 피드백을 통한 강화학습을 통해 비윤리적 발언이나 위험한 응답의 빈도를 크게 낮추는 방식이 도입되었다고 정리합니다. 과거 마이크로소프트 Tay 사례처럼, 사용자 입력을 그대로 흡수하며 혐오 발언과 극단적 주장으로 빠르게 오염될 수 있었던 챗봇의 문제를 떠올리면, 왜 인간 평가자의 점수와 보상 구조로 모델의 행동을 교정하는 과정이 중요해졌는지 이해할 수 있을 것입니다.
챗GPT의 답은 물을 때마다 조금씩 집니다. 그 이유는 챗GPT의 답의 자유도를 설정할 수 있기 때문입니다. 이것을 챗GPT의 온도라고 부릅니다. 흔히 0도에서 1도 사이로 설정합니다. 0에 가까울수록 정답을 말합니다... 1에 가까울수록, 그러니까 온도가 높아질수록 자유도가 높아집니다.
인공지능은 같은 질문에도 답이 다른 답을 내놓을 수 있습니다. 이는 무작위성의 정도를 조절하는 온도설정과 관련되고, 온도가 낮을수록 가장 가능성 높은 답을 고정적으로 내놓는 경향이 강해지며, 높을수록 다양한 후보를 섞어 더 창의적이지만 더 흔들릴 수 있는 답을 냅니다. 이런 특성은 사용자가 원하는 결과에 따라 질문을 설계하고, 역할을 부여하기(Act as a Role) 같은 프롬프트 전략으로 출력의 성격을 조정하는 실천으로 이어지기도 합니다.
노엄 촘스키(Noam Chomsky)같은 세계 최고의 언어학자는 "챗 GPT는 천문학적인 양의 데이터에 접근해 규칙성, 문자열 등에 기반해 문장을 만드는 첨단 기술 표절 시스템이다"라고 말하기도 했습니다.
책은 비판적 시선도 함께 역어냅니다. 촘스키 계열의 비판은 LLM이 이해라기보다 통계적 모사에 가깝다는 문제의식을 던지고, 테드 창의 비유는 출력이 선명한 원본이 아니라 압축된 근사치에 가깝다는 감각을 제공합니다. 안드레이 카파시의 관점은 환각을 버그로만 볼 수 없다는 쪽으로 방향을 틀어버립니다. LLM은 기본적으로 꿈을 꾸는 기계처럼 그럴듯한 서사를 생성하고, 우리가 프롬프트로 그 꿈의 무대를 연출하며, 대부분 유용한 방향으로 흐르다가 사실 검증이 필요한 영역에서만 문제가 환각으로 드러난다는 식입니다. 이 대목은 검색엔진처럼 사실을 그대로 꺼내오는 시스템은 창의성이 거의 없는 대신, LLM은 창의성을 얻는 대가로 사실성 리스크를 지닌다는 대비로 이해했습니다.
책의 후반부에서 팀닛 게브루가 확률적 앵무새라는 비판적 표현으로 지적한 위험, 그리고 데이터와 연산의 규모가 커질수록 편향과 차별, 환경 비용, 책임소재 문제가 커진다는 경고가 소개됩니다. 특히 인터넷 접근성과 언어적 영향력이 작은 국가와 공동체의 규범은 학습에서 누락되기 쉽고, 그 결과 모델의 응답이 부유한 국가와 큰 커뮤니티의 관행으로 동질화될 수 있다는 문제를 강조합니다. 이미지넷 기반 분류 프로젝트가 사람을 식민지적 방식으로 분류하고 고정관념을 재생산할 수 있다는 비판 사례도, 데이터셋이 세계를 바라보는 렌즈 자체가 된다는 점을 보여주며 결국 현실과 다를 바 없는 AI제국이 건설될 수 있음을 지적합니다.
언어의 경우 정상 물질은 눈에 보이는 텍스트입니다. 암흑 물질은 세상이 어떻게 작동하는지에 대한 무언의 규칙입니다. 사람들이 언어를 사용하는 방식과 해석에 영향을 미칩니다.
마지막으로 책은 규범적 기준을 제시합니다. 아실로마 AI 원칙은 안전, 장애 투명성, 사법적 투명성, 책임, 가치관 정렬, 인간의 가치 같은 항목을 통해 AI가 어디까지 설명 가능해야 하고, 누가 어떤 책임을 져야 하며, 무엇을 보호해야 하는지의 최소선을 제안합니다. 로마 교황청의 윤리 요청 역시 인간의 존엄과 권리, 자유라는 기본조건이 AI의 제작과 사용에서도 보장되어야 한다는 점을 환기하며, 기술 경쟁의 속도보다 인간 사회의 규범이 뒤처지지 않도록 붙잡아야 할 기준을 강조하는 결론으로 이어지며 책이 마무리됩니다.
모든 내용을 이해하진 못했지만, 미약하게나마 AI를 둘러싼 다양한 견해와 그 작동원리를 이해할 수 있었습니다. 이 책을 시작으로 다양한 AI 관련 책을 읽어보고 싶네요.