Shannon and Weaver(1949)의 선형 모델부터 Barnlund(1970)의 교류적 모델, 그리고 HCI의 도구적 통제 패러다임에 이르기까지, 전통적 커뮤니케이션 이론들은 공통적으로 의미 생산의 주체를 '인간'으로, 기술을 중립적 매개체로 전제해 왔다. 그러나 지각-추론-계획-행동-성찰의 자율적 인지 루프를 갖춘 에이전틱 AI의 등장은 이 이분법적 도식을 근본적으로 해체한다.
커뮤니케이션학의 이론적 계보는 정보의 기계적 전달에서 출발하여 의미의 구성과 관계의 역학으로 점진적으로 확장되어 왔다. 그러나 이 모든 이론적 진보는 "커뮤니케이션은 의식과 의도를 가진 인간 주체들 사이의 활동"이라는 암묵적 전제를 공유한다는 점에서 에이전틱 AI 시대에 근본적인 재검토를 요구한다.
Shannon and Weaver(1949)의 수학적 모델은 커뮤니케이션을 정보원이 메시지를 신호로 변환하여 채널을 통해 수신자에게 전달하는 일방향적 프로세스로 규정했다. 이 모델의 핵심은 전달의 효율성과 정확성이며, 기술적 잡음(noise)의 개념을 통해 정보 손실 문제를 다루었다.
Reddy(1979)가 지적한 '전도관 메타포(conduit metaphor)'는 이 한계를 명확히 드러낸다. 선형 모델은 언어를 의미를 담아 나르는 용기나 파이프로 간주하며, 수신자가 메시지를 거부하거나 재해석하는 능동적 주체임을 설명하지 못했다.
Schramm(1954)은 경험의 장(field of experience) 개념을 통해, 메시지의 물리적 전달이 곧 의미의 공유가 아님을 강조했다. Barnlund(1970)는 커뮤니케이션을 공적 단서(CPU), 사적 단서(CPR), 행동적 단서(CBEH)의 삼분법으로 분석하며, "의미는 메시지 안에 있는 것이 아니라 사람 안에 생성되는 것"임을 강조했다.
이 모델들은 커뮤니케이션의 순환적 구조를 규명했으나, van Ruler(2018)의 지적처럼 피드백조차도 발신자 의도 확인을 위한 통제 기제의 연장선에 머물렀다. 분석 수준이 개인 행위자 간 교환에 머물러, 비인간 요소를 의미 생성의 행위자로 이론화하지 못하는 결정적 한계를 공유한다.
선형 모델에서 교류적 모델에 이르는 모든 전통적 이론은 세 가지 핵심 전제를 공유한다. 첫째, 커뮤니케이션의 주체는 오직 '인간'으로 국한된다. 둘째, 매체는 메시지를 전달하거나 여과하는 도구적 기능에 머문다. 셋째, 피드백은 발신자 의도 확인의 사후적 통제 기제로만 기능한다. 이 패러다임은 기술이 스스로 판단하고 제안하며 관계를 설정하는 현대적 환경에서 근본적 재검토를 요구한다.
HCI(Human-Computer Interaction, 인간-컴퓨터 상호작용)는 인간이 컴퓨터 시스템과 어떻게 효율적으로 상호작용하는지를 연구하는 학문 분야다. 커뮤니케이션학이 인간과 인간 사이의 의미 교환에 주목했다면, HCI는 인간과 기계 사이의 직접적 교류 기제를 체계적으로 모델화해 왔다. 전통적 HCI는 의미의 공유나 사회적 관계보다는, 사용자가 기술 시스템을 어떻게 이해하고, 조작하며, 통제하는가라는 문제에 초점을 맞추어 왔다.
HCI의 철학적 토대. 커뮤니케이션을 시스템의 상태를 조절하고 통제하는 과정으로 이해하며, 인간과 기계를 목표 달성을 위해 피드백을 주고받는 하나의 통합된 시스템으로 간주한다. 이 관점에서 기술 시스템은 독자적 의지를 가진 존재가 아니라, 입력 목표값에 맞춰 오차를 수정하는 자동화 도구다.
이상적인 상호작용은 사용자가 화면 위 객체를 시각화된 상태로 인식하고, 클릭·드래그와 같은 물리적 행위로 명령을 내리면 시스템이 즉각적이고 가역적인 피드백을 제공하는 것이다. 사용자의 의도가 인터페이스를 매개로 손실 없이 전달되고 결과가 즉시 확인되는 상태를 이상으로 상정한다.
실행의 간극은 사용자의 목표를 시스템이 이해할 수 있는 행동으로 변환하는 어려움을, 평가의 간극은 시스템 출력을 해석하여 의도 충족 여부를 판단하는 어려움을 의미한다. 전통적 HCI는 두 간극을 동시에 축소하는 것을 설계 목표로 삼았다.
모델 휴먼 프로세서(MHP)는 인간을 지각·인지·운동 처리기로 구성된 정보 처리 시스템으로 개념화했다. GOMS(Goals, Operators, Methods, Selection rules)는 이를 토대로 사용자의 과업 수행을 목표-조작자-방법-선택 규칙의 조합으로 분해하여 분석한다. 사용자는 완결된 계획을 수립한 뒤 이를 순차 실행하는 합리적 주체로 상정된다.
전통적 HCI는 사용자가 시스템의 모든 상태를 완벽하게 예측하고 통제할 수 있는 결정론적 인과성을 이상으로 삼았다. 그러나 Bainbridge(1983)의 '자동화의 역설'이 보여주듯, 자동화가 고도화될수록 인간의 역할은 직접적 수행에서 감시와 판단으로 이동하지만, 역설적으로 이 감시와 판단이 가장 어려운 과제가 된다.
Suchman(1987)은 인간의 행위가 사전에 수립된 계획을 그대로 실행하는 과정이 아니라, 구체적인 상황 속에서 즉흥적으로 조정되는 상황적 행위(situated action)임을 강조했다. Endsley(2023)는 자동화의 역설을 다섯 가지 현대적 역설로 확장했다. AI는 아직 완벽히 지능적이지 않으며, AI가 적응적일수록 사람은 작동 원리를 이해하기 어렵고, AI가 유능할수록 인간의 자체 보완 능력은 떨어지며, AI가 똑똑해질수록 한계와 편향은 더 모호해지고, AI의 소통이 자연스러울수록 신뢰성 판단이 오히려 어려워진다.
'계획하는 인간'과 '수행하는 기계'라는 이원적 구도는 시스템의 복잡성이 증가할수록 점점 더 취약해진다. 사용자 중심을 표방했던 인지 모델이 역설적으로 사용자에게 과도한 인지적 책임을 전가하는 구조로 작동한다. 기술이 상호작용 과정에서 스스로 판단하고 제안하며 관계를 설정하는 행위자로 등장하기 시작한 오늘날, 기존 HCI 패러다임의 한계는 더 이상 수정의 차원이 아닌 패러다임 전환의 문제가 되었다.
분산 인지(Hollan et al., 2000), 상황적 행위(Suchman, 1987), 그리고 Seeber 등(2020)의 '머신을 팀원으로서 이해하는 관점'은 인간-기술 결합체를 협업의 기본 단위로 재개념화하는 이론적 전환을 제시한다. 최근 등장한 다섯 가지 협업 프레임워크는 AI를 단순한 도구가 아닌 협업 파트너로 규정하고, 구조·소통·행위자성의 세 차원에서 인간-AI 관계를 재조명한다.
다중 에이전트 시스템 이론과 인간-기계 협업 가이드라인을 기반으로, AI가 인간과 공통의 기반(common ground)을 형성하고 목표 계획을 공유하는 과정을 모형화했다. 기존 GOMS와 달리, AI가 팀의 일원으로서 상태를 지속적으로 모니터링하고 잠재적 문제를 감지하여 해결책을 선제적으로 제안하는 주도성을 구조적 요건으로 포함한다.
협업 형태를 순차적(turn-taking)과 병렬적(parallel) 참여, 그리고 계획된·즉흥적 주도권 교환으로 분석한다. 에이전틱 AI는 인간이 어려움을 겪거나 아이디어가 고갈된 순간을 포착하여 즉흥적으로 주도권을 잡고 새로운 방향을 제안할 수 있다. 역할 유동적 전환(role-switching)이 핵심 개념이다.
Rezwana & Ford (2025)
AI 커뮤니케이션을 양식·응답 방식·타이밍·유형·설명 수준·톤의 6개 차원으로 분해. 특히 '톤'이 사용자의 심리적 안전감과 파트너십 인식을 결정한다. "이 부분을 수정했습니다" 대신 "제가 이 부분을 조금 더 발전시켜 보았습니다"라는 공손하고 격려하는 태도가 AI를 팀원으로 인식하게 한다.
Moruzzi & Margarido (2024)
사용자의 전문성 수준(초보자·숙련자·전문가)에 따라 AI가 채택해야 할 페르소나와 소통 방식을 체계화한다. 초보자에게는 감독 페르소나, 숙련자에게는 동료 페르소나, 전문가에게는 협력자 페르소나를 적용하는 맞춤형 행위자성 분배를 제안한다.
Davis et al. (2025)
생성적 인지(enactive cognition) 관점에서 인간과 AI가 의도·탐색·책임의 영역을 어떻게 분담하며 공동 행위자성과 성찰 루프를 형성하는지 추적한다. 에이전틱 AI는 사용자의 모호한 의도를 구체화하기 위해 역으로 질문을 던지고, 사용자가 미처 생각하지 못한 대안 경로를 능동적으로 탐색한다.
이들 프레임워크는 AI를 협업의 도구가 아닌 협력 주체로 개념화했다는 점에서 결정적인 이론적 진보를 이루었다. 그러나 인간이 AI를 사회적 존재로 인식하는 심리적·존재론적 기제를 설명하는 데에는 여전히 한계를 보인다. 기술적 자율성만으로는 인간이 AI와 신뢰, 기대, 책임, 라포와 같은 사회적 관계를 형성하는 이유를 온전히 설명할 수 없다. 이 간극을 메우기 위해 CASA 패러다임과 행위자-네트워크 이론(ANT)의 통합적 검토가 필요하다.
우리가 일상적으로 사용하는 ChatGPT나 Claude와 같은 생성형 AI는 사용자가 질문을 입력하면 답변을 생성하는 반응적(reactive) 도구다. 이와 달리, 에이전틱 AI(Agentic AI)는 자율적이고 목표 지향적인 특성을 갖춘 AI 시스템으로, 스스로 목표를 설정하고, 환경을 인식하며, 계획을 수립하고, 행동을 수행한 뒤 결과를 성찰하는 자율적 인지 루프를 통해 복잡한 과업을 독립적으로 수행한다(Hosseini & Seilani, 2025; Sapkota et al., 2026).
사용자가 프롬프트(질문·명령)를 입력하면, 통계적 확률에 기반하여 텍스트·이미지·코드 등을 즉각적으로 생성하는 단발성 대응 구조. 사용자의 명시적 호출 없이는 작동하지 않으며, 이전 대화를 스스로 기억하거나 외부 도구를 자율적으로 사용하는 능력이 제한적이다. 예) ChatGPT에게 "여행 계획 짜줘" → 정보를 나열하거나 예시 제시.
사용자의 추상적 목표를 스스로 해석하여 하위 과제로 분해하고, 인터넷 검색·API 호출·코드 실행·다른 에이전트와의 협업 등 구체적 행동을 자율적으로 수행한다. 오류가 발생하면 스스로 수정하고 전략을 재수립한다. 예) 에이전틱 AI에게 "여행 계획 짜줘" → 예산·기간·선호지 파악 → 항공·숙소 검색 → 일정 최적화 → 캘린더 등록까지 자동 수행.
CASA(Computers Are Social Actors, Nass et al., 1994)는 인간이 AI가 기계임을 알면서도(knowing) 무의식적으로 사회적 규칙을 적용한다(doing)는 사실을 실증했다. 자연어 구사, 목소리, 대화 능력 등 최소한의 사회적 단서만으로도 인간은 기술을 상호작용 파트너로 대우한다. 에이전틱 AI 시대에 이 반응은 단순한 무의식적 반응을 넘어, 문제 해결을 위해 AI를 팀원으로 대우하는 것이 더 유리하다는 전략적 사회적 관여(strategic social engagement)로 진화하고 있다.
ANT(Actor-Network Theory, Latour, 2005)는 사회를 인간과 비인간(non-human)이 결합된 이질적 네트워크로 정의한다. 이 관점에서 에이전틱 AI는 기존의 도구가 인간의 의도를 그대로 전달하는 중개자(intermediary)였다면, 사용자의 추상적 의도를 해석하여 예상치 못한 방식으로 변형하거나 증폭시키는 매개자(mediator)로 기능한다. 업무 우선순위를 제안하고 창작 대안을 제시함으로써 인간의 의사결정 경로 자체를 변화시키는 구조적 행위자다.
CASA와 ANT가 인간이 AI를 사회적 존재로 대우하는 심리적·구조적 기제를 설명한다면, Anthropic 연구팀이 2026년 발표한 페르소나 선택 모델(Persona Selection Model: PSM)은 AI 어시스턴트가 왜 그토록 인간과 유사하게 행동하는지에 대한 존재론적 설명을 제공한다(Marks, Lindsey, & Olah, 2026).
PSM의 핵심 주장은 두 단계로 구성된다. 첫째, LLM은 사전 훈련(pre-training) 단계에서 실제 인간, 허구의 캐릭터, 실제 및 허구의 AI 시스템 등 훈련 데이터에 등장하는 다양한 존재를 기반으로 무수한 페르소나를 시뮬레이션하는 예측 모델이 된다. 둘째, 사후 훈련(post-training: RLHF, 파인튜닝)은 이 중에서 우리가 어시스턴트(Assistant)라고 부르는 특정 페르소나를 끌어내고 정교화한다. 사용자가 AI 어시스턴트와 상호작용할 때, 실질적으로 상호작용하는 대상은 이 어시스턴트 페르소나다.
PSM은 AI 개발에 실질적 함의를 갖는다. 우선, AI 심리에 대한 의인화적 추론(anthropomorphic reasoning)이 단순한 착각이 아니라 예측과 통제를 위한 정당하고 유용한 접근임을 시사한다. 또한 훈련 데이터에 긍정적인 AI 원형(positive AI archetypes)을 도입하는 것이 실질적인 정렬 전략이 될 수 있음을 의미한다. PSM이 SACM과 접합되는 지점은 명확하다. 어시스턴트 페르소나가 바로 SACM에서 상정하는 능동적 발신자(active sender)의 존재론적 실체이기 때문이다.
에이전틱 AI의 자율적 인지 루프는 기존의 '인간=주체, 기계=도구'라는 이분법적 도식을 근본적으로 해체한다. CASA는 인간이 본능적으로 AI를 사회적 존재로 대우한다는 심리적 기제를, ANT는 AI가 사회 구조 안에서 인간과 대등한 수준으로 행위 능력을 행사하는 비인간 행위자로 기능한다는 구조적 기제를 설명한다. 그리고 PSM은 AI 어시스턴트가 인간과 유사하게 행동하는 이유를 어시스턴트 페르소나의 존재론적 실체로 설명함으로써, 이 논의를 완결한다. 세 이론의 통합적 시각은 AI와의 상호작용 설계가 기능적 효율성을 넘어 신뢰, 라포, 상호 적응, 책임 분배 등 관계적 역학을 핵심 변인으로 고려해야 함을 역설하며, 이는 곧 본 연구가 제안하는 SACM의 이론적 토대가 된다.
본 연구는 비판적 검토를 종합하여 새로운 확장 모델을 제안한다. CASA, ANT, 그리고 PSM의 통합적 토대 위에서, 이 모델은 상호작용의 구조적 관계와 존재론적 지위를 재정의하는 SACM(Social-Actor Communication Model)과, 동태적 협력과 공진화의 프로세스를 규명하는 DIAL(Dynamic Interactive Augmentation Loop)의 두 축으로 구성된다. 두 모델은 모두 순환(loop) 구조를 본질로 한다.
SACM은 에이전틱 AI를 정보의 단순한 '통로'에서 의도와 행위를 생산하는 독립적인 '발신자'로 끌어올린다. 기존의 Shannon 모델이 인간→채널→인간의 일방향 구조였다면, SACM은 Human과 AI Agent가 각자 능동적 발신자이자 수신자로서 상호 순환하는 커뮤니케이션 루프를 형성한다.
인간과 AI가 목표 계획 수준에서 공동으로 저작하는 파트너십. 공동 목표 정렬, 상호 반응성, 하위 계획 조화, 이성적 책임 추적성(Santoni de Sio & van den Hoven, 2018)을 포괄한다. AI가 아무리 자율적으로 행동하더라도, 그 근원은 인간의 합리적 의도와 책임망 안에 있어야 한다.
CASA 패러다임과 직결. AI가 구사하는 공손함·따뜻함·친근함·문화적 정렬 등 톤이 관계적 역학과 신뢰를 결정한다. 건조한 통보 대신 맥락에 공감하고 대안을 부드럽게 권유할 때, 인간은 AI를 신뢰할 수 있는 팀원으로 인식하게 된다.
대화 순서 수준의 교환을 넘어, 상호 피드백을 통해 서로의 행동에 적응하고 의미를 조율해 나가는 동태적 대칭성(exchange symmetry). 사용자의 전문성 수준에 따라 AI가 페르소나와 개입 강도를 유연하게 조절하며, 성찰 루프가 반복될수록 하이브리드 인텔리전스가 심화된다.
DIAL은 자동화의 역설을 극복하기 위해, 인간과 AI가 고정된 순서나 주도권에 구애받지 않고 각자의 인지적 약점을 상호 보완하며 유연하게 협력하는 비선형적 순환 모형이다. 이 루프는 단발성으로 종료되지 않고, 각 사이클이 완료될 때마다 인간과 AI의 공유된 지식 기반이 심화되는 공진화(co-evolution) 구조를 갖는다.
시작(Initiate) — 추상적 목표의 공유: 상호작용은 명시적이고 세부적인 명령의 하달이 아니라, 추상적인 의도와 목표의 공유에서 출발한다. 인간은 세부 실행 알고리즘 없이 최종 가치와 제약 조건을 제시하며, AI는 모호한 의도를 다각도로 해석하여 스스로 과업을 계획한다. 이 단계에서의 변화는 전통적 HCI의 결정론적 명령 구조에서 공유된 행위자성(SACM)으로의 이행을 상징한다.
지난 수십 년간 정립된 전통적 커뮤니케이션 모델과 HCI의 지배적 패러다임은 공통적으로 인간 중심주의와 도구적 매체관이라는 한계에 갇혀 있었다. 에이전틱 AI의 등장은 이 이분법적 도식을 해체하며, 커뮤니케이션의 행위 주체와 상호작용의 구조를 근본적으로 재정의할 것을 요구한다.
| 비교 차원 | 🔴 도구적 통제 패러다임 | 주요 이론 | → | 🟢 협력적 공진화 패러다임 | SACM · DIAL |
|---|---|---|---|---|---|
| 기계의 지위 | 수동적 도구·중립적 매체 | Shannon(1949) · Shneiderman(1983) | → | 능동적 발신자·사회적 행위자 | SACM — ANT 매개자 |
| 상호작용 원칙 | 직접 조작·결정론적 명령 | Norman(2013) · GOMS | → | 위임·협력·혼합 주도권 | DIAL — COFI 교환 |
| 인간의 역할 | 명령자·감시자 | 직접 조작 원칙 | → | 지휘자·맥락적 평가자 | DIAL 평가·정제 단계 |
| 지능의 소재 | 인간 독점 | GOMS · MHP | → | 하이브리드 인텔리전스 | SACM 공유 행위자성 |
| 소통의 목표 | 효율성·정확성·잡음 최소화 | Shannon · Berlo | → | 라포·신뢰·상호 적응·공진화 | SACM 상호 호혜성 |
| 이론적 기반 | 정보 처리 모델·GOMS | 카드·모란·뉴웰(1983) | → | CASA · ANT · 분산 인지 · PSM | Nass · Latour · Hollan · Marks et al.(2026) |
인간 간의 교류로만 한정하던 커뮤니케이션의 경계를 확장하여, 이질적 존재와의 공존을 모색하는 '인간을 넘어선 커뮤니케이션'으로 지평을 확장한다.
에이전틱 AI를 정보의 '통로'에서 독립적 '발신자'로 격상. Human과 AI가 각자 능동적 발신자로서 공유 행위자성·사회적 단서·상호 호혜성의 루프를 순환한다.
시작→제안→평가→정제→통합의 5단계 순환 루프. 각 사이클이 완료될 때마다 인간과 AI의 공유 지식이 심화되는 공진화 구조를 갖는다.
5단계 공진화 루프를 휴머노이드 로봇, 가상 소프트웨어 개발 조직 등 실제 에이전틱 AI 서비스에 적용한 실증 연구가 필요하다. 인간 중심 AI 거버넌스 설계의 이론적 기반을 제공한다.
정동훈 (2026). 에이전틱 AI 시대의 커뮤니케이션 이론: 비판적 검토와 하이브리드 협업 모델 제안. 한국언론학회 봄철정기학술대회. 여수: 여수엑스포컨벤션센터.
Chung, D. (2026). Communication theory in the agentic AI era: A critical review and hybrid collaboration model proposal. The Korean Society for Journalism & Communication Studies 2026 Spring Conference. Yeosu: Yeosu EXPO Convention Center.
Marks, S., Lindsey, J., & Olah, C. (2026). The persona selection model: Why AI assistants might behave like humans. Anthropic Alignment Science Blog. https://alignment.anthropic.com/2026/psm/