
바둑 AI에서 LLM까지, 무엇이 같고 무엇이 다른가
이번 글은 알파고의 바둑 구조에서 시작해, 오늘날 LLM까지 이어지는 흐름을 하나의 관점으로 정리한 내용이다. 핵심은 단순하다. 바둑이든 대화형 AI든 결국 어떤 상태를 받아 다음 응답을 선택하는 구조라는 점이다. 다만 그 세계의 크기와 성격이 다를 뿐이다.
1. 바둑은 지능을 시험하기 위한 작은 세계였다
바둑은 AI를 시험하기에 매우 좋은 환경이었다. 이유는 분명하다. 규칙이 명확하고, 공간이 제한되어 있으며, 승패가 분명하기 때문이다. 즉 바둑은 현실 세계 전체가 아니라, 인간이 익숙하게 다룰 수 있도록 잘 정리된 작은 실험장에 가깝다.
19x19라는 제한된 판, 흑과 백이라는 명확한 역할, 한 수씩 번갈아 두는 턴 구조. 이 모든 것은 AI가 계산하기 좋은 형태다. 그래서 바둑은 지능의 본질 그 자체라기보다, 지능을 측정하고 시험하기 위한 축소된 구조로 볼 수 있다.
2. 바둑의 본질은 턴 기반 응답 구조다
바둑은 누군가 한 수를 두면, 다른 누군가가 그에 응답하는 방식으로 진행된다. 흑이 두고, 백이 답하고, 다시 흑이 두고, 다시 백이 답한다. 이 구조만 놓고 보면 대화형 LLM과 매우 유사하다.
사용자가 말을 하면 모델이 답한다. 다시 사용자가 질문하면 모델이 그 문맥에 맞춰 응답한다. 즉 바둑도 대화도 구조적으로 보면 하나의 흐름을 가진다. 어떤 상태가 주어지고, 그 상태에 대해 다음 행동을 선택하는 것이다.
이 점에서 보면 대화형 AI가 먼저 자연스럽게 받아들여진 이유도 이해할 수 있다. 인간은 원래 턴 기반 상호작용에 익숙하기 때문이다.
3. AI가 혼자 바둑을 두면 무슨 일이 생길까
AI에게 혼자 바둑을 두라고 하면, 흑 차례에는 흑의 최선을 계산하고, 백 차례에는 백의 최선을 계산한다. 즉 두 명의 플레이어가 아니라 하나의 시스템이 두 관점을 번갈아 수행하는 셈이다.
이 점은 꽤 중요하다. 겉으로는 대립처럼 보이지만, 내부적으로는 하나의 계산 시스템이 역할만 바꾸며 진행한다. 이 구조는 대화형 AI가 사용자 입력을 이해하고, 다시 자기 역할로 응답을 생성하는 방식과도 닮아 있다.
4. 바둑판이 계속 커진다면 계산은 어떻게 변할까
이제 사고 실험을 해보자. 오늘은 19x19 바둑판인데, 내일은 20x20이고, 모레는 21x21이라면 어떻게 될까. 판이 계속 커지면 전체를 완벽하게 계산하는 것은 점점 어려워진다. 이때 살아남는 것은 국지 패턴과 원리다.
예를 들면 연결, 영향력, 공간 장악, 약점 공략 같은 개념이다. 즉 고정된 크기의 세계에서는 계산이 강하지만, 계속 확장되는 세계에서는 패턴이 더 중요해진다. 환경이 커질수록 지능은 좌표 하나하나보다 구조적 반복성을 배운다.
5. 바둑판 모양이 달라지면 더 본질적인 것만 남는다
이번에는 크기가 아니라 모양이 바뀐다고 해보자. 어떤 날은 정사각형, 어떤 날은 직사각형, 어떤 날은 원형, 어떤 날은 삼각형이다. 이렇게 되면 기존의 위치 기반 전략은 무너지기 시작한다.
코너 전략, 가장자리 계산, 특정 좌표 정석 같은 것들은 약해진다. 대신 남는 것은 관계다. 돌과 돌의 연결, 분리, 압박, 생존, 영역 형성 같은 더 추상적인 구조만 살아남는다.
즉 환경이 흔들릴수록 지능은 점점 더 높은 추상도로 이동한다. 고정된 위치보다 관계를 보고, 관계보다 구조를 본다.
6. LLM이 배우는 것은 세상이 아니라 글이다
여기서 LLM으로 넘어가 보자. 많은 사람들이 LLM이 인간 세계를 배운다고 생각하지만, 정확히 말하면 그렇지 않다. LLM이 배우는 것은 세상 자체가 아니라, 세상에 대해 인간이 써 놓은 글이다.
그리고 이 글의 양은 무한하지 않다. 이미 존재하는 텍스트의 양은 유한하고, 모델은 그 전체를 다 학습하지도 않는다. 결국 LLM이 보는 세계는 현실 전체가 아니라, 현실이 언어로 기록된 일부 조각들이다.
즉 세상 → 글 → 일부 데이터 → 모델이라는 축소 과정이 존재한다. 이 점에서 LLM이 다루는 세계 역시 완전한 현실이 아니라 제한된 구조다.
7. 같은 인간 세계라도 사람마다 바둑판이 다르다
더 중요한 것은 관점이다. 같은 인간과 같은 세상을 이야기하더라도, 어떤 사람은 네모난 판에서 보고 글을 쓴다. 어떤 사람은 동그라미 판에서 본다. 또 어떤 사람은 전혀 다른 기준으로 세상을 정리한다.
즉 텍스트는 단순한 정보의 집합이 아니다. 각자의 관점, 기준, 해석이 섞인 결과물이다. 같은 사건을 보더라도 사람마다 전혀 다른 방식으로 기록할 수 있다. 결국 LLM은 하나의 진실을 배우는 것이 아니라, 서로 다른 바둑판 위에 기록된 수많은 흔적을 함께 학습하는 셈이다.
8. 그래서 LLM이 배우는 것은 정답이 아니라 패턴과 확률이다
이 지점에서 핵심 결론이 나온다. LLM은 진실 그 자체를 배우는 것이 아니다. 해결책 그 자체를 배우는 것도 아니다. 인간들이 어떤 방식으로 말해왔는지, 어떤 표현이 어떤 맥락에서 자주 이어졌는지, 어떤 해석이 어떤 구조 속에서 반복되었는지를 배운다.
즉 LLM은 진실 탐색기라기보다 언어 패턴 압축기에 가깝다. 모델 내부에서는 결국 다음에 올 말의 확률을 계산한다. 그 계산이 정교하고 정확해 보일 수는 있지만, 본질적으로는 패턴과 연결의 문제다.
9. 바둑 AI와 LLM은 결국 하나의 흐름 위에 있다
바둑 AI와 LLM은 겉모습은 다르지만 구조적으로 이어진다. 둘 다 어떤 상태를 받고, 그 상태에 대해 다음 행동을 선택한다. 차이가 있다면 바둑은 규칙이 명확한 작은 세계였고, LLM은 관점이 얽힌 인간 언어의 세계를 다룬다는 점이다.
바둑은 잘 정리된 실험장이었고, LLM은 인간이 남긴 흔적의 통계 공간이다. 따라서 LLM은 세상의 진실을 직접 다루는 시스템이라기보다, 인간 언어 세계에서 반복된 패턴을 압축하고 응답하는 시스템으로 보는 편이 더 정확하다.
마무리
정리하면 이렇다. 바둑은 AI를 시험하기 위한 작은 구조 세계였고, 그 본질은 턴 기반 응답 구조였다. 대화형 LLM 역시 사용자 입력에 대한 응답이라는 점에서 같은 뼈대를 가진다. 다만 LLM은 현실 전체가 아니라, 인간이 남긴 유한한 텍스트와 그 안에 섞인 관점들을 학습한다.
그래서 LLM은 진실 그 자체를 배우는 것이 아니라, 인간이 축적해 온 언어적 흔적의 패턴과 확률을 학습한다고 보는 것이 더 맞다. 이 관점으로 보면 바둑 AI에서 LLM까지의 흐름은 끊어진 것이 아니라, 작은 세계의 응답 구조가 더 큰 언어 세계로 확장된 과정이라고 볼 수 있다.
해시태그
#알파고 #LLM #ChatGPT #인공지능 #바둑AI #대화형AI #패턴인식 #확률모델 #언어모델 #AI철학
'AI (GPT4, 로컬 LLM)' 카테고리의 다른 글
| 왜 LLM에서는 Mac 구조가 유리한가? (0) | 2026.03.14 |
|---|---|
| 대화형 AI 도구 비교 정리 (ChatGPT, Claude, Gemini, Copilot, Grok) (0) | 2026.03.14 |
| 맥 ChatGPT 앱 vs 웹 버전, 실제 사용해보니 생기는 차이 (0) | 2026.03.06 |
| ChatGPT 기능: 브랜치(Branch)와 프로젝트 소스(Project Sources) (0) | 2026.03.05 |
| GPT가 분석한 나라는 프로그래머 (0) | 2026.03.05 |