12 읽음
AI 획일화 극복, 사고와 결과 분리 설계 필요
IT조선
0
2025년 10월, 워싱턴대학교(UW) 앨런 스쿨과 스탠퍼드 대학교 공동 연구진은 인공지능 업계에 거대한 파장을 일으킨 논문 ‘Artificial Hivemind’를 발표했다. 이 연구는 현존하는 70여 개 이상의 주요 거대언어모델(LLM)을 대상으로 실시한 대규모 비교 분석을 통해, 각기 다른 아키텍처와 데이터를 가진 AI들이 도출하는 결과물이 놀라울 정도로 하나의 지점으로 수렴하고 있다는 사실을 밝혀냈다.

연구진은 정답이 정해지지 않은 이른바 열린 질문(Open-ended questions)을 모델들에게 던졌는데, 놀랍게도 시중에 나온 거의 모든 AI 모델은 마치 약속이라도 한 듯 동일한 결과물로 수렴한 것이다. 아키텍처와 훈련 데이터, 개발사가 다름에도 불구하고 아이디어의 구조와 비유, 문장의 전개 방식까지 놀라울 정도로 흡사했다. 시를 써도, 비즈니스 전략을 수립해도, 인생의 고뇌에 대한 조언을 구해도 AI들은 비슷한 논리의 궤적을 그렸는데, 연구진은 이 현상을 인공 집단지성(Artificial Hivemind)이라 명명했다.

AI가 점점 유능해지고 있다는 찬사 뒤에 가려진, ‘AI가 점점 비슷하게 생각하고 있다’는 무서운 경고라고 봐야한다. 다양한 관점과 비판적 사고가 생명인 과학, 전략, 의사결정의 영역에서 이러한 획일화는 치명적인데, AI가 인류의 지능을 보완하는 것이 아니라, 오히려 인류의 사고 범위를 특정 패턴 안에 가두는 ‘논리의 감옥’이 될 수 있기 때문이다. 우리는 지금 더 똑똑한 AI를 넘어, ‘다르게 생각할 줄 아는 AI’를 어떻게 구현할 것인가라는 근본적인 질문을 던져봐야 한다.

할루시네이션의 역설: 일관성이 혁신의 족쇄가 될 때

여전히 AI 개발의 지향점 중 중요한 것은 바로 자기일관성(Self-Consistency)의 확보와 할루시네이션(Hallucination, 환각)의 제거다. 모델이 앞뒤가 맞는 말을 해야 하고, 없는 사실을 지어내지 않아야 한다는 것은 기술적 신뢰의 기본이다. 하지만 여기서 중대한 역설을 마주할 수 밖에 없는데, 자기일관성과 할루시네이션 문제에 너무 집착하다 보면, 필연적으로 예상치 못한 새로운 부작용이 자라나게 된다. 자기일관성을 과도하게 밀어 올리면 모델은 익숙한 경로만 반복하는 ‘풀이의 획일화’로 수렴할 수 있고, 할루시네이션 제로화에 집착하면 모델의 탐색성과 변주 능력이 위축되어 ‘창의성 결핍’으로 이어지기 때문이다.

이러한 경향이 고착화되면 AI는 과거 데이터를 안전하게 재생산하는 수준에 머물고, 새로운 조합과 설명, 대안을 제시하는 혁신의 동력은 약화될 수밖에 없다. 노엄 촘스키가 비판했듯, 지식의 원인과 원리를 이해하지 못한 채 표면적인 패턴만을 흉내 내는 ‘세련된 표절’에 갇힐 위험이 크다는 뜻이다. 인공지능이 사회 전반의 난제 해결에 기여하기 위해서는 정답의 수렴 못지않게 다양성과 창의성이 필수적이며, 이를 위해서는 기술을 바라보는 관점 자체가 바뀌어야 한다.

해법의 설계: 사고 과정(Reasoning)과 결과(Output)의 이중 트랙

그렇다면 신뢰성과 창의성이라는 양립하기 어려운 두 가치를 어떻게 동시에 확보할 수 있을까? 해결의 실마리는 사고의 과정인 리즈닝(Reasoning)과 최종 결과인 아웃풋(Output)을 분리하는 설계 철학에 있다고 본다. 그동안의 AI는 문제 입력부터 답변 출력까지를 하나의 통행로로 처리해 왔으나, 진정한 지능으로 도약하기 위해서는 고민의 단계와 결론의 단계가 명확히 구분되어야 한다.

우선 사고 과정인 리즈닝 단계는 최대한 넓게 열어두어야 한다. 여기서는 다양성과 창의성의 가중치를 높여 하나의 문제에 대해서도 수십 가지의 대안 경로를 탐색할 수 있도록 보장해 주어야 한다. 이 과정에서 발생하는 논리적 변주는 환각이 아니라 창의적 탐색의 결과물로 존중받아야 하고, 대신에 사용자와 만나는 최종 아웃풋 단계는 엄격한 제약 조건을 통과해야 할 것이다. 자기일관성과 할루시네이션 최소화를 최상으로 설정해 탐색된 수많은 경로 중 가장 합리적이고 책임 있는 답변만을 걸러내어 출력하는 식이다. “과정은 넓게 탐색하고, 결과는 책임 있게 수렴한다”는 이 원칙은 AI가 창의성과 신뢰성을 동시에 얻는 중요한 방법이라고 본다,

실전 전략: ‘Task 기반 4축 매트릭스’의 도입

모든 업무에 동일한 AI 파라미터를 적용하는 것은 당연히 비효율적이다. 업무의 성격에 따라 필요한 지능의 농도가 다르기 때문이다. 이를 위해 나는 자기일관성, 다양성, 환각 최소화, 창의성이라는 네 가지 지표를 축으로 하는 ‘Task 기반 매트릭스’를 제안한 바 있다. 도메인과 구체적인 작업 단위에 따라 이 네 가지 지표의 가중치를 정밀하게 조정해야 한다는 주장이다.

예를 들어 의료 분야에서 환자의 상태를 분류하는 트리아지(Triage)는 프로토콜 준수가 절대적이므로 일관성과 환각 최소화가 극대화되어야 하지만, 환자 교육 단계에서는 사실을 유지하면서도 환자의 수준에 맞춘 비유와 다양한 설명 방식이 필요하므로 창의성과 다양성이 강조되어야 한다. 금융 분야 역시 규제 Q&A는 정확성이 생명이지만, 투자 자문은 다양한 포트폴리오를 탐색할 수 있는 다양성이 필수적이다. 제조 현장에서도 품질 판정은 규격에 수렴해야 하지만, 공정 최적화는 다목적 해공간을 탐색하는 창의성이 성과를 좌우한다. 결국 미래의 AI 경쟁력은 단순히 모델의 크기를 키우는 것을 넘어서서 작업의 성격에 맞춰 ‘어디서 열고 어디서 닫을지’를 결정하는 정책 설계 능력에서 결정될 것이라고 확신한다.

기술적 구현: 에이전틱 오케스트레이션과 스파스(Sparse) 전문가의 결합

이러한 철학을 실체화하기 위해서는 AI를 단순한 질의응답기가 아닌, 스스로 계획하고 실행하는 에이전틱 워크플로우(Agentic Workflow)로 재정의해야 한다. 가장 먼저 필요한 혁신은 기존의 토큰 단위 MoE를 넘어선 태스크 기반 스파스(Sparse) 전문가 라우팅의 도입이다. 모든 연산 자원을 쏟아붓는 거대 모델 대신, 특정 도메인에 최적화된 작고 날렵한 스파스 모델들을 에이전트 단위로 배치하는 전략이다.

라우터는 이제 단순한 확률 통계가 아니라, 사용자의 의도와 사고 레이어의 특성을 해석하는 전략적 컨트롤 타워(Orchestrator) 역할을 수행해야 한다. 예를 들어, 높은 창의성이 요구되는 '공정 최적화 가설 수립' 단계에서는 탐색 능력이 특화된 스파스 에이전트를 호출하고, 최종적인 '안전 규격 검증' 단계에서는 일관성과 정합성이 극대화된 정밀 전문가 모델을 호출해 연결하는 식이다. 이렇게 되면 지능의 낭비를 막는 동시에 각 단계에 필요한 지능의 성격을 실시간으로 최적화한다.

또한 학습 체계 역시 고정된 SFT/RL의 틀을 벗어나 환경 통합형 피드백 루프로 진화해야 한다. 에이전트가 도구(Tool)를 사용하고 외부 환경과 상호작용하며 얻은 결과를 바탕으로, 사고(Reasoning)와 실행(Action)의 보상 함수를 분리해 설계하는 것이다. 금융 에이전트에게는 '추론의 근거와 실정법 정합성'에 높은 보상을 주고, 제조 에이전트에게는 '새로운 공정 효율의 발견'이라는 탐색적 성과에 보상을 집중함으로써 도메인별로 특화된 지능의 균형을 완성할 수 있다.

여기에 에이전트의 사고 흐름을 실시간으로 감시하는 동적 가드레일(Dynamic Guardrails)이 결합될 수 있다. 민감한 보안 태스크가 감지되면 워크플로우 엔진이 즉각 정책 토글을 작동시켜 추론의 다양성을 제한하고, 출력 스키마를 강제해 신뢰성을 확보한다. 결국 목적에 맞는 전문가 에이전트들을 얼마나 정교하게 엮어내고 통제하느냐에 달려 있다.

AGI로 가는 길, 정답 기계를 넘어 혁신의 파트너로

우리는 여전히 AI를 단순히 ‘정답을 맞히는 기계’로 보고 있지는 않나 생각해 봐야 한다. 만약 그렇다면 우리는 AI라는 거대한 잠재력을 겨우 하이테크 사전 정도로 축소해 쓰고 있는 셈이다. 진정한 AGI로의 도약은 과거 데이터의 정밀한 복제가 아니라, 데이터 사이의 빈틈을 메우는 새로운 설명과 대안을 스스로 구성할 수 있을 때 완성될 것이기 때문에 자기일관성과 환각 최소화는 AI가 갖춰야 할 기초 체력이지 최종적인 목표가 되어서는 안 된다.

AI가 사회의 난제를 해결하는 신뢰받는 파트너가 되기 위해서는 우리가 먼저 AI에게 다양하게 탐색할 수 있는 자유와 책임 있게 말하는 의무를 동시에 부여해야 한다. AI가 정답만 맞추는 기계를 넘어 새로운 해법을 설계하는 신뢰 있는 파트너로 자리매김할 때 우리는 비로소 AGI로 가는 길의 속도와 깊이를 동시에 끌어올릴 수 있을 것이다. 기술은 수단이며, 진짜 목표는 여전히 또 언제나 가치 있는 문제 정의와 책임 있는 운영 설계에 있다

※ 외부필자의 원고는 IT조선의 편집방향과 일치하지 않을 수 있습니다.

이승현 포티투마루 부사장은 스타트업 창업가 출신의 AI 전문가다. 디지털플랫폼정부위원회 인공지능플랫폼혁신국장으로서 재직하면서 대한민국 공공 AI의 초석을 닦았으며, 현재는 법무법인 린의 공공AX 고문을 겸하며 기술과 정책의 가교 역할을 하고 있다. 이론에 머물지 않는 현장형 전략가로서 국가 전반의 AI 네이티브 전환을 이끌고 있다.
0 / 300