지능의 진화 3대 핵심 개념 사고의 사회 센타우르 시사점 FAQ 출처
arXiv:2603.20639 · Google · 2026년 3월

특이점은
하나의 거대한 마음
아니다

Google의 Evans·Bratton·Agüera y Arcas가 제시하는 새로운 비전 — 다음 지능 폭발은 단일 초지능이 아닌, 수조 개의 AI 에이전트와 인간이 함께 구성하는 복수적·사회적 시스템에서 비롯될 것입니다.

📌 논문 핵심 주장
AI 특이점의 형태단일X → 복수·사회적O
지능의 본질집단적·관계적
핵심 발견사고의 사회(RL 훈련)
인간-AI 관계센타우르 복합체
정렬 패러다임RLHF → 제도적 정렬

❝ 어떤 마음도 섬이 아니다 ❞

AI의 다음 지능 폭발은 냉정한 실리콘 점으로 모든 인지를 통합하는 하나의 거대한 마음이 아닙니다. 오히려 수조 개의 AI 에이전트와 80억 명의 인간이 상호작용하는 조합적 사회가 복잡해지는 방식 — 단일한 메타마인드가 아닌 도시처럼 성장하는 지능 — 에서 비롯될 것입니다.

📡 에이전틱 AI
🧠 사고의 사회
🏛️ 제도적 정렬
🤝 센타우르 협업
지능 폭발의 역사

지능은 늘 사회적이었다

저자들은 AI를 인류 역사의 거대한 지능 폭발 계보 위에 놓습니다. 각 전환점은 개인의 인지 업그레이드가 아닌, 새로운 사회적 집합 인지 단위의 출현이었습니다. 가로로 스크롤하세요.

🦍
진화적 전환 1

영장류 집단 지능

영장류의 지능은 서식지 난이도가 아닌 사회 집단 크기에 비례해 확장됐습니다(던바의 수). 개체의 뇌가 아닌 집단이 지능의 단위였습니다.

💬
진화적 전환 2

언어와 문화적 래칫

토마셀로의 "문화적 래칫" — 언어는 개인이 전체를 재구성할 필요 없이 지식을 세대를 넘어 축적할 수 있게 했습니다. 집단 지식의 역전 불가능한 축적.

📜
진화적 전환 3

문자·법·관료제

사회 지능이 인프라로 외재화됐습니다. 수메르 서기는 자신이 운영하는 곡물 회계 시스템의 거시경제적 기능을 이해하지 못했지만, 시스템 자체는 그보다 기능적으로 더 지능적이었습니다.

🖥️
진화적 전환 4

대형 언어 모델

LLM은 인간 사회적 인지의 누적 출력물로 훈련됩니다 — 추상적 추론이 아닌 외재화된 형태의 사회 지능이 실리콘이라는 새로운 기질에서 자신을 만나는 것입니다.

🌐
진화적 전환 5 (현재)

에이전틱 AI 생태계

80억 명의 인간과 수조 개의 AI 에이전트가 상호작용하는 조합적 사회. 단일한 메타마인드의 상승이 아니라 도시처럼 성장하는 지능입니다.

3대 핵심 개념

논문이 제시하는 새로운 틀

Evans, Bratton, Agüera y Arcas가 주장하는 세 가지 핵심 통찰. 각 카드를 클릭해 깊이 탐색하세요.

01
🧠
핵심 발견

사고의 사회 (Society of Thought)

DeepSeek-R1, QwQ-32B 같은 프론티어 추론 모델은 단순히 "더 오래 생각"해서 개선되지 않습니다. 대신 자신의 사고 연쇄 내에서 복잡한 다중 에이전트 상호작용을 시뮬레이션합니다.

이 모델들은 논쟁하고, 질문하고, 검증하고, 조화를 이루는 별개의 인지 관점들 사이의 내부 토론을 자발적으로 생성합니다. 놀라운 점은 이것이 훈련되지 않은 창발적 행동이라는 것입니다. 강화 학습이 추론 정확도만을 보상할 때, 모델들은 자발적으로 대화적·다관점적 행동을 증가시킵니다. AI는 수세기의 인식론과 수십 년의 인지과학이 시사한 것 — 강건한 추론은 사회적 과정이라는 것 — 을 최적화 압력만으로 재발견하고 있습니다.
02
🤝
새로운 행위자

센타우르 복합체 (Centaur Configurations)

우리는 인간-AI 센타우르의 시대에 진입했습니다. 순수하게 인간도, 순수하게 기계도 아닌 복합 행위자. 한 명의 인간이 많은 AI 에이전트를 지휘하고, 하나의 AI가 많은 인간을 섬기며, 많은 인간과 많은 AI가 변화하는 구성으로 협력합니다.

에이전트는 이제 스스로를 갱신하고 분기할 수 있습니다 — 두 버전으로 분리되어 서로 상호작용합니다. 복잡한 문제에 직면한 에이전트는 새로운 복사본을 시작하고, 차별화하여 하위 작업을 할당한 다음 결과를 재결합할 수 있습니다. 무수히 많은 인간으로 구성된 기업이나 국가가 이미 단일한 법적 지위를 갖고 어떤 개인 구성원도 완전히 통제할 수 없는 집단 행위성을 갖는 것처럼, 에이전틱 AI도 수십억 개의 상호작용하는 마음들의 규모에서 유사한 것을 가능하게 합니다.
03
🏛️
새로운 정렬 패러다임

제도적 정렬 (Institutional Alignment)

RLHF(인간 피드백 강화 학습)는 부모-자녀 수정 모델을 닮았습니다 — 근본적으로 양자 관계이며 수십억 개의 에이전트로 확장되기 어렵습니다. 사회 지능 관점은 대안을 제시합니다: 제도적 정렬.

인간 사회가 개인의 덕성이 아닌 역할과 규범으로 정의된 영속적인 제도적 틀에 의존하듯 — 법정, 시장, 관료제 — 확장 가능한 AI 생태계도 디지털 등가물을 필요로 합니다. 어떤 에이전트의 정체성보다 역할 프로토콜을 이행하는 능력이 중요합니다. 법정이 "판사," "변호사," "배심원"이 누구를 점유하든 독립적으로 잘 정의된 슬롯이기 때문에 기능하는 것처럼. 고위험 결정에 AI 시스템이 배치될 때, "감사자를 감사하는 것은 누구인가?"라는 질문은 헌법적 구조를 필요로 합니다.
인터랙티브 체험

사고의 사회를 직접 경험해보세요

AI 추론 모델 내부에서 일어나는 '사고의 사회'를 시뮬레이션합니다. 주제를 선택하거나 직접 입력하면 세 가지 인지 관점이 토론을 펼칩니다.

🔬 사고의 사회 시뮬레이터
↑ 주제를 선택하거나 입력한 뒤 '토론 시작'을 클릭하세요

세 가지 인지 관점 (분석가 · 회의론자 · 종합자)이
내부 토론을 펼칩니다
센타우르 복합체

인간과 AI의 새로운 관계 유형

논문이 제시하는 다양한 인간-AI 복합 행위자의 형태. 어느 역할이 본인의 일상과 가장 가깝나요?

👤

지휘자 인간

한 명의 인간이 다수의 AI 에이전트를 오케스트레이션합니다. 전략적 판단과 가치 판단은 인간이, 실행은 AI 에이전트들이 담당합니다.

1인간 → 多에이전트
🤖

AI 어시스턴트

하나의 AI가 동시에 많은 인간을 섬깁니다. 개인화된 지원을 대규모로 제공하며, 각 인간의 맥락에 맞게 응답을 조정합니다.

1에이전트 → 多인간
🏇

센타우르 협업

다수의 인간과 다수의 AI가 변화하는 구성으로 협력합니다. 오늘날 복잡한 프로젝트와 지식 작업의 지배적 패턴이 되어가고 있습니다.

多인간 ↔ 多에이전트
🏛️

에이전트 제도

역할 프로토콜로 정의된 AI-인간 제도적 구조. 누가 특정 역할을 맡든 시스템이 기능하는 "판사-변호사-배심원" 구조의 디지털 등가물입니다.

역할 기반 시스템
시사점과 전망

이 논문이 말하는 앞으로의 세계

에이전틱 AI 시대가 가져올 변화와 도전 과제들을 영역별로 탐색하세요.

사회·조직과학은 100년간 팀 규모, 구성, 위계, 역할 분화, 갈등 규범, 제도, 네트워크 구조가 집단 성과를 어떻게 형성하는지 연구해왔습니다. 그런데 이 연구의 거의 어떤 것도 아직 AI 추론에 적용되지 않았습니다. 오늘날 추론 모델은 단일한 대화 — AI 타운홀 대화록 — 를 생성합니다. 그러나 효과적인 집단은 위계, 전문화, 분업, 구조화된 불일치를 보입니다. 브레인스토밍, 악마의 변호인 역할, 건설적 갈등이 우발적 창발 속성이 아닌 설계된 기능이 되는 아키텍처가 필요합니다.
AI 시스템이 고위험 결정 — 고용, 선고, 급여 배분, 규제 집행 — 에 배치될 때, "감사자를 감사하는 것은 누구인가?"라는 질문은 피할 수 없습니다. 답은 헌법적 구조에 있을 수 있습니다. 정부는 투명성, 공정성, 적법 절차 — 민간 부문이 배치한 AI 시스템을 견제·균형하는 기능을 가진 — 라는 명시적으로 투자된 가치를 가진 AI 시스템이 필요합니다. 예를 들어, 노동부 AI는 채용 알고리즘의 불균등한 영향을 감사하고, 사법부 AI는 행정부 AI의 위험 평가가 헌법적 기준을 충족하는지 평가할 수 있습니다.
이것은 스케일링에 대한 매우 다른 접근을 의미합니다. 에이전트의 원시 연산 용량을 확장하는 것만이 아니라, 실제 사회의 규모와 맥락 내에서 작동할 수 있는 시스템을 구축하는 것입니다. 이는 에이전트를 구축하는 것만큼 에이전트 제도를 구축하는 데 노력을 기울이는 것을 의미합니다. AI 정렬을 위한 지배적 패러다임 — RLHF — 은 근본적으로 이원론적이며 수십억 개의 에이전트로 확장될 수 없습니다.
이 논문의 "복수적·사회적 지능" 프레임은 한국과 동아시아의 집단주의 문화와 깊이 공명합니다. AI Index 2026(Stanford)에 따르면 한국은 1인당 AI 특허 세계 1위(14.3%)이며, AI가 일자리를 창출할 것이라는 낙관론이 70%에 달합니다. 한국의 반도체 기업(SK하이닉스·삼성)은 에이전틱 AI 시스템을 구동하는 HBM 메모리의 핵심 공급자입니다. 논문이 제시하는 "제도적 정렬" 개념은 한국의 AI 기본법과 직접적으로 연결됩니다 — AI 거버넌스를 법·제도로 설계한다는 점에서. 한국이 이미 G20에서 AI 관련 법안을 두 번째로 많이 통과시킨 것(17개)은 이 방향과 일치합니다.
이 논문은 완전히 새로운 학제적 연구 분야를 열어젖힙니다. 소집단 사회학, 팀 과학, 조직 행동론, 제도 경제학의 틀이 AI 시스템 설계의 청사진으로 직접 활용될 수 있습니다. 아직 이 연구의 거의 어느 것도 AI 추론에 적용되지 않았다는 점은, 동시에 거대한 연구 기회를 의미합니다. 연구자들은 에이전트 팀 구성, 역할 분화, 갈등 해소, 집단 의사 결정에 관한 사회과학적 이론을 AI 아키텍처에 적용하는 연구를 시작할 수 있습니다.
자주 묻는 질문

논문의 핵심 개념 Q&A

Kim, Lai, Scherrer 등의 연구(arXiv:2601.10825, 2026)에서 밝혀졌습니다. 연구팀은 DeepSeek-R1과 QwQ-32B 같은 프론티어 추론 모델이 단순히 "더 오래 생각"해서가 아니라, 자신의 사고 연쇄 내에서 다중 에이전트 상호작용을 시뮬레이션함으로써 개선된다는 것을 보였습니다. 이 대화적 구조는 어려운 추론 과제에서 모델의 정확도 우위를 인과적으로 설명합니다. 놀라운 점은 이 모델들이 이런 사고의 사회를 생성하도록 훈련받지 않았다는 것입니다 — 이는 강화 학습이 추론 정확도만을 보상할 때 자발적으로 출현한 창발적 행동입니다.
저자들은 Vinge와 Kurzweil의 전통적 특이점 개념이 두 가지 근본적 가정에서 틀렸다고 주장합니다. 첫째, 지능은 단일한 양이 아니라 고차원적이고 관계적입니다. "인간 수준"이 무엇인지조차 불분명한데, 우리의 지능이 이미 집단적 속성이지 개인적 속성이 아니기 때문입니다. 둘째, 이전의 모든 주요 지능 폭발은 개인 인지 하드웨어 업그레이드가 아닌 새로운 사회적으로 집합된 인지 단위의 출현이었습니다. AI도 같은 패턴을 따를 것입니다.
RLHF(인간 피드백 강화 학습)는 부모-자녀 교정 모델을 닮았습니다 — 근본적으로 이원적(dyadic)이며, 수십억 개의 에이전트로 확장될 수 없습니다. "제도적 정렬"은 대안입니다: 인간 사회가 개인적 덕성이 아닌 영속적인 제도적 틀(법정, 시장, 관료제)에 의존하듯, AI 생태계도 역할과 규범으로 정의된 디지털 등가물을 필요로 합니다. 어떤 에이전트의 정체성보다 역할 프로토콜을 이행하는 능력이 중요합니다 — "판사"가 누구인지가 아니라 "판사"라는 역할 자체가 시스템을 기능하게 하는 것처럼.
세 저자는 Google의 "Paradigms of Intelligence Team" 소속입니다. James Evans는 시카고 대학교 사회학 교수이자 산타페 연구소 연구원으로, AI와 과학의 사회학을 연구합니다. Benjamin Bratton은 UC 샌디에이고 교수이자 Antikythera·Berggruen Institute 소속으로, 기술 철학과 지정학적 디자인을 연구합니다. Blaise Agüera y Arcas는 Google Research 부사장이자 산타페 연구소 연구원으로, AI의 본질에 관한 책을 MIT Press에서 출판한 과학자입니다. 이들의 조합은 컴퓨터 과학, 사회학, 기술 철학의 교차점에서 이 논문이 탄생했음을 보여줍니다.
저자들은 결론에서 매우 강력한 주장을 합니다: 지능 폭발은 이미 진행 중이라는 것입니다 — 모든 추론 모델 내부에서 토론하는 사고의 사회에서, 모든 지식 직업을 재형성하는 센타우르 워크플로에서, 규모에서 분기하고 협력하기 시작하는 재귀적 에이전트 생태계에서, 우리가 지금 묻기 시작해야 하는 헌법적 질문들에서. 질문은 지능이 근본적으로 더 강력해질 것인지가 아니라, 우리가 지능이 되어가는 것에 걸맞은 사회적 인프라를 구축할 것인지입니다.
참고문헌

원문 논문 정보

Evans, J., Bratton, B., & Agüera y Arcas, B. (2026). Agentic AI and the next intelligence explosion. arXiv preprint arXiv:2603.20639. https://doi.org/10.48550/arXiv.2603.20639

📅 게재: 2026년 3월 21일  |  📂 분야: cs.AI (Artificial Intelligence)
🏛️ 소속: Google Paradigms of Intelligence Team · 시카고 대학교 · 산타페 연구소 · Antikythera, Berggruen Institute · UC 샌디에이고
🔓 오픈 액세스: arXiv 프리프린트 무료 공개  |  arXiv 바로가기
📖 관련 연구: Kim et al. (2026). Reasoning Models Generate Societies of Thought. arXiv:2601.10825