Xuchen Pan, Dawei Gao, Yuexiang Xie, Yushuo Chen, Zhewei Wei, Yaliang Li, Bolin Ding, Ji-Rong Wen, Jingren Zhou · Alibaba Group / Renmin University of China · arXiv 2024

Very Large-Scale Multi-Agent Simulation in AgentScope

이 논문은 LLM 기반 멀티에이전트 시뮬레이션을 "어떻게 100만 명의 에이전트를 12분 안에 실행할 수 있는가"라는 공학적 문제로 바라본다 — 액터 모델(actor model)이라는 수십 년 된 분산 컴퓨팅 아이디어를 AI 에이전트 세계에 이식함으로써, 확장성·다양성·관리용이성 세 가지 장벽을 동시에 허문다.

arXiv →
LLM Agent Multi-Agent Simulation Actor Model AgentScope Agent-Based Modeling Distributed AI

문제의 배경 — 기존 연구의 한계

LLM의 등장으로 에이전트 기반 시뮬레이션(agent-based simulation)은 새로운 전기를 맞이했다. GPT-4, Qwen2, Llama3처럼 인간의 언어를 이해하고 추론하는 모델이 에이전트의 "두뇌"가 될 수 있다면, 경제학자·사회학자·행동과학자들이 오랫동안 꿈꿔온 대규모 사회 시뮬레이션이 현실이 될 수 있다. 실제로 교육·경제·사회학·교통·의료 등 다양한 분야에서 LLM 에이전트를 활용한 시뮬레이션 연구가 폭발적으로 증가하고 있다.

그러나 논문은 기존 플랫폼들이 "대규모"라는 벽 앞에서 세 가지 치명적인 한계에 부딪힌다고 진단한다.

한계 ① 확장성과 효율성의 벽. 시뮬레이션의 현실성은 에이전트 수에 비례한다. 소규모 시뮬레이션은 "실제 세계의 복잡성을 부정확하게 표현할 위험"이 있다. 하지만 에이전트 수를 늘릴수록 플랫폼은 실행 순서 조율·고주파 환경 접근·병렬 처리라는 문제에 직면한다. MetaGPT, AutoGen 같은 기존 플랫폼들은 Python의 비동기 I/O에 의존하는데, 이는 GIL(Global Interpreter Lock)에 의해 근본적으로 제약된다.
한계 ② 균질한 에이전트 집단. 대규모 시뮬레이션의 유의미성은 에이전트의 다양성에 달려 있다. 단순한 배경 설정만으로는 수천 명의 에이전트가 거의 동일한 행동을 보이게 되어 의미 있는 통찰을 얻기 어렵다. 기존 연구들은 나이·학력·직업·국적 등 인구통계학적 분포를 정밀하게 지정하는 방법을 거의 제공하지 않는다.
한계 ③ 관리의 어려움. 여러 디바이스에 분산된 수많은 에이전트의 초기화·실행·종료·모니터링을 수동으로 처리하는 것은 규모가 커질수록 사실상 불가능해진다. 집단 수준과 개인 수준의 행동을 실시간으로 관찰하고 인사이트를 도출하려면 체계적인 관리 도구가 필수적이다.
"We identify several challenges in conducting simulations with multi-agent platforms, particularly when the number of agents becomes extremely large."

에이전트 수가 극단적으로 많아질 때, 기존 멀티에이전트 플랫폼의 근본적 한계들이 드러난다.

보충 에이전트 기반 시뮬레이션(ABS)은 본래 수십 년의 역사를 가진 분야다. 그러나 기존의 rule-based ABS는 전문가가 행동 규칙을 일일이 코딩해야 했다. LLM 에이전트는 자연어 프롬프트만으로 인간과 유사한 추론·적응 행동을 보여줄 수 있어, ABS의 패러다임을 근본적으로 바꾸고 있다. 문제는 LLM 호출이 rule 실행보다 수백~수천 배 느리고 비싸다는 점이다.

이 논문의 선택 — 핵심 아이디어와 트레이드오프

논문은 세 가지 문제 각각에 대한 해결책을 제시하면서, 동시에 하나의 통합 플랫폼 AgentScope 위에서 이들이 함께 작동하도록 설계했다. 핵심 통찰은 이것이다: 에이전트를 "액터(actor)"로 추상화하면, 에이전트 간 의존 관계가 없는 것들은 자동으로 병렬 실행될 수 있다.

핵심 선택 1985년의 수학 모델을 2024년의 LLM 세계에 이식하다. 액터 모델(actor model)은 Agha(1985)가 제안한 분산 컴퓨팅의 고전 개념으로, 각 액터가 독립적으로 메시지를 받고 연산하는 구조다. 이 논문은 LLM 에이전트를 액터로 보고, 의존성이 없는 에이전트들을 자동으로 병렬 실행한다. 중앙화된 워크플로우를 분산 워크플로우로 to_dist 함수 하나로 변환할 수 있다는 것이 설계의 핵심이다.
핵심 선택 에이전트 다양성: 분포 설정 → LLM 자동 생성 파이프라인. 나이·학력·직업 등의 인구 분포를 YAML 설정 파일로 지정하면, LLM이 각 에이전트의 상세 배경을 자동으로 생성한다. "수천 명의 에이전트를 일일이 설정하는" 수작업을 제거한다.
핵심 선택 환경을 특수한 에이전트로 추상화. 에이전트-환경 상호작용을 에이전트 간 통신과 동일한 RPC(Remote Procedure Call) 메커니즘으로 처리한다. 이를 통해 환경도 고동시성 접근을 지원하고, 조건이 충족되면 환경이 능동적으로 에이전트에 메시지를 보낼 수 있다(양방향 상호작용).

무엇을 포기했는가 — 트레이드오프

트레이드오프 일반성 vs. 특화된 시뮬레이션 도구. AgentScope는 범용 멀티에이전트 플랫폼으로 설계되었기 때문에, Vidur(LLM 서비스 처리량 특화) 또는 SOTOPIA(사회적 지능 평가 특화) 같은 도메인 특화 프레임워크보다 해당 분야에서의 성능이 떨어질 수 있다. 유연성을 얻는 대신 최적화를 일부 포기했다.
트레이드오프 LLM 추론 비용이 병목. 1M 에이전트를 12분에 실행하는 수치는 Llama3-8B + 간단한 프롬프트 조합에서 나온 것이다. Prompt 2(단계적 사고)를 사용하면 85분, Llama3-70B + Prompt 2 조합에서는 약 10.6시간이 걸린다. 플랫폼의 병렬 처리 효율이 아무리 높아도, LLM 추론 속도 자체가 최종 병목이 된다.

직렬 vs 병렬 실행: 핵심 개념 시각화

아래 다이어그램에서 에이전트 A가 완료된 후 B와 C가 독립적으로 병렬 실행되는 구조를 확인할 수 있다. 각 블록을 클릭하면 상세 설명이 나타난다.

직렬 실행 (기존) Agent A Agent B Agent C ⏱ A+B+C 합산 액터 모델 병렬 실행 (본 논문) Agent A Agent B Agent C ⏱ A + max(B,C)

방법론 — AgentScope 인프라 상세

AgentScope는 기존 플랫폼(LLM 서비스, 메모리 관리, 에이전트 상호작용)의 기본 기능을 토대로, 네 가지 핵심 컴포넌트를 추가했다. 각각이 앞서 진단한 세 가지 한계 중 어느 것을 해결하는지 주목하면서 읽어보자.

① 액터 기반 분산 메커니즘 (Actor-Based Distributed Mechanism)

액터 모델(actor model)은 Agha(1985)가 제안한 수학적 동시 계산 모델이다. 핵심 원리: 각 액터는 독립적인 연산 단위로, 메시지를 받아 독립적으로 계산한다. AgentScope는 LLM 에이전트를 액터로 추상화함으로써, 에이전트 수준의 병렬 실행(agent-level parallel execution)과 자동 워크플로우 변환(automatic workflow conversion)을 동시에 구현했다.

에이전트 수준 병렬 실행

멀티에이전트 시뮬레이션에서 에이전트 간 상호작용은 "원자화된 패턴(atomized pattern)"을 따른다 — 상호작용은 격리된 소규모 클리크(clique) 내에서 발생한다. 이 패턴은 에이전트 수준 병렬화에 큰 잠재력을 제공한다.

"Agents that do not rely on the outputs of others or whose dependencies have all been satisfied, can be executed in parallel for enhancing efficiency."

다른 에이전트의 출력에 의존하지 않거나, 모든 의존성이 이미 충족된 에이전트들은 병렬로 실행될 수 있다.

AgentScope는 두 가지 멀티프로세스 모드를 제공한다:

모드에이전트-프로세스 관계적합한 상황
일대일(One-to-One) 에이전트마다 별도 프로세스 연산 집약적 작업. GIL 영향 없이 진정한 병렬 실행. 각 에이전트에 충분한 자원 보장.
다대일(Many-to-One) 여러 에이전트가 하나의 프로세스 공유 I/O 대기·원격 API 대기가 많은 LLM 에이전트에 최적. CPU 타임셰어링으로 자원 최대 활용.

보충 기존 플랫폼(AutoGen, MetaGPT)은 Python의 asyncio 기반 비동기 I/O를 사용한다. 이는 GIL로 인해 실제 병렬 CPU 연산이 불가능하다. Ray 같은 액터 기반 프레임워크는 각 액터마다 새 워커 프로세스를 할당해 대규모 에이전트에서는 자원 낭비가 심하다. 본 논문의 접근법은 많은 에이전트를 하나의 프로세스 안에서 처리할 수 있어 이 문제를 회피한다.

자동 워크플로우 변환 (to_dist)

분산 배포의 핵심 장벽은 "기존 코드를 전부 다시 작성해야 한다"는 것이었다. AgentScope는 to_dist 함수 하나로 중앙화된 워크플로우를 분산 워크플로우로 변환한다. 변환 과정은 두 단계로 자동 수행된다:

스텝 1 / 3
Center Proxy A Proxy B Agent A (Device 1) Agent B (Device 2) Placeholder

② 에이전트-환경 상호작용 (Agent-Environment Interactions)

에이전트끼리의 통신만으로는 부족하다. 실제 시뮬레이션에서 에이전트들은 공유된 환경(shared environment)을 읽고 쓰며 반응해야 한다. 예를 들어 채팅방 시뮬레이션에서는 대화 이력이 환경의 상태이고, 미로 시뮬레이션에서는 에이전트의 위치가 상태다.

AgentScope가 환경에 요구하는 네 가지 조건과 그 해결 방식:

요구 조건구현 방식
고동시성 접근환경을 특수한 에이전트로 추상화 → RPC 통신으로 동시 접근 지원
다양한 상태사용자 정의 함수(user-defined functions)로 임의의 상태 확장 가능
양방향 상호작용리스너(listener) 도입: 조건 충족 시 환경이 에이전트에 능동적으로 메시지 전송
다중 환경환경의 중첩(nesting) 지원: 그룹별 전용 환경 + 전역 환경 계층 구조
"We abstract the environment as a special type of agent with rich functionalities, which allows the environment to maintain shared variables as states and to communicate with other agents through Remote Procedure Calls for ensuring high concurrency."

환경을 풍부한 기능을 가진 특수한 에이전트로 추상화하여, 공유 변수를 상태로 유지하고 RPC를 통해 고동시성 통신을 보장한다.

보충 리스너 패턴은 이벤트 기반 프로그래밍(event-driven programming)의 고전적 개념이다. 예를 들어 채팅방 환경에서 특정 에이전트의 이름이 언급되면, 환경이 해당 에이전트에 자동으로 알림을 보낼 수 있다. 이를 통해 에이전트가 매 턴마다 환경을 폴링(polling)할 필요 없이 필요한 순간에만 활성화된다.

③ 이기종 설정 (Heterogeneous Configurations)

에이전트 다양성의 핵심 문제: 수천 명의 에이전트에게 다양하고 상세한 배경 설정을 수작업으로 부여하는 것은 사실상 불가능하다. 특히 "전체 인구 중 20%는 대학원 졸업, 30%는 고졸" 같이 정밀한 인구통계 분포를 원할 때는 더욱 그렇다.

AgentScope의 해결책은 두 단계 파이프라인이다:

YAML 설정 분포 샘플링 JSON 변환 LLM 배경 생성 (메타 프롬프트) 다양한 에이전트 배경 자동 완성

④ Agent-Manager — 대규모 에이전트 웹 기반 관리

시뮬레이션 규모가 커질수록 초기화·실행·종료·모니터링이 수동으로는 불가능해진다. AgentScope는 Agent-Manager라는 웹 기반 시각 인터페이스를 제공한다.

"Servers are first launched on all the remote devices, which provide resident services to remotely create, monitor, and stop distributed agents."

모든 원격 디바이스에 서버가 먼저 실행되어 분산 에이전트를 원격으로 생성·모니터링·종료하는 상주 서비스를 제공한다.

Agent-Manager의 주요 기능:

평가 논문은 Agent-Manager의 구현 세부사항(사용된 프레임워크, 실시간 업데이트 방식 등)을 자세히 공개하지 않는다. 그러나 대규모 시뮬레이션에서 "무엇이 잘못되고 있는지"를 실시간으로 파악하는 능력은 연구 생산성에 매우 중요하다. 이 기능의 진정한 가치는 실제 복잡한 시뮬레이션에서 디버깅 시간이 얼마나 줄어드는지로 측정되어야 할 것이다.

구현 세부사항

항목세부 사항
하드웨어A100-80G GPU 8개 탑재, 64코어 CPU, 1TB 메모리로 구성된 클러스터 (복수 디바이스)
LLM 추론 엔진vLLM (고동시성 서비스 요청 처리)
생성 temperature1.0 (응답 다양성 극대화)
LLM 호출 구조라운드당 2회 LLM 호출: ① 사고 과정 + 숫자 생성, ② 숫자 추출 (형식 오류 방지)
통신 방식RPC (Remote Procedure Call); Python 및 C++ 구현 모두 제공
소스 코드GitHub 공개: modelscope/agentscope/examples/paper_large_scale_simulation

결과 — "평균의 2/3 추측" 게임 대규모 시뮬레이션

논문은 고전 게임이론 실험인 "평균의 2/3 추측(Guess 2/3 of the Average)" 게임을 테스트베드로 선택했다. 이 선택은 탁월하다: 게임 이론적으로 Nash 균형이 명확히 알려져 있어(모든 에이전트가 0을 보고해야 함), 에이전트의 합리성과 추론 능력을 정량적으로 평가할 수 있다.

"Each player reports a real number between 0 and 100, inclusive. The winner will be the player whose number is the closest to 2/3 of the average of all reported numbers."

각 플레이어는 0~100 사이의 실수를 보고하며, 모든 보고 숫자 평균의 2/3에 가장 가까운 숫자를 보고한 플레이어가 승리한다.

보충 이 게임의 Nash 균형이 0인 이유: "최대값은 100이므로 66.7 이하를 선택해야 한다 → 그런데 다들 그렇게 생각하면 새 최대값은 66.7이므로 44.4 이하를 선택해야 한다 → ..." 이 귀납 추론을 무한히 반복하면 0에 수렴한다. 그러나 현실에서는 모든 플레이어가 완전히 합리적이지 않으므로, 0을 보고한다고 항상 이기는 것은 아니다.

핵심 수치

100만
에이전트 규모
단일 시뮬레이션 지원 (4개 디바이스)
12분
100만 에이전트 완료 시간
Llama3-8B + Prompt 1, 4 devices
40초
플랫폼 순수 처리 시간
더미 모델 사용 시 (LLM 추론 제외)
12일 → 40초
직렬 대비 효율 향상
Serial: 12일 / Async: 8.6시간 / Ours: 40초

확장성 비교: 직렬 vs 비동기 vs 본 논문 (더미 모델)

더미 모델(에이전트가 1초 대기 후 난수 생성)을 사용하여 LLM 추론 속도의 영향을 제거하고, 순수 플랫폼 병렬 처리 효율만 비교한 결과다.

실험 2: 시스템 프롬프트의 영향

동일한 게임에서 어떤 프롬프트를 주느냐에 따라 에이전트의 행동이 극적으로 달라진다. 아래 차트는 Qwen2-72B 에이전트가 4가지 프롬프트 유형에서 보고하는 숫자의 중앙값을 비교한다.

Prompt 1(기본)에서 Prompt 4(전략적 추론 유도)로 갈수록 에이전트의 행동이 Nash 균형(0)에 가까워진다. 특히 "모든 플레이어가 합리적이다"라는 정보를 추가하는 것만으로도 큰 변화가 생긴다.

실험 3: 학력·직업 배경 설정의 영향

교육 수준Qwen2-72B 평균Llama3-70B 평균패턴
초등학교높음 (~40+)높음덜 합리적
고등학교중간중간
학사중간중간
석사낮음낮음
박사(Ph.D.)가장 낮음가장 낮음가장 합리적

교육 수준이 높을수록 더 낮은 숫자를 보고하는(더 합리적인) 경향이 나타났다. 단, MistralAI-8×22B는 교육 수준에 가장 둔감하여 최대 차이가 3.49에 불과했다. 이는 LLM마다 "캐릭터 배경 설정"에 대한 민감도가 다름을 보여준다.

실험 4: 멀티라운드 게임 — 수렴 관찰

라운드가 진행될수록 에이전트들이 이전 라운드의 승자 숫자를 참고해 전략을 조정하며, 보고값이 Nash 균형(0)으로 수렴하는 것을 확인했다. Prompt 4를 사용한 Qwen2-72B는 5라운드에서 평균 0.15를 달성했다(Prompt 1 동일 조건에서는 25.16).

핵심 발견 이 실험 결과는 Nagel(1995), Camerer et al.(2004) 등 기존 게임이론 연구와 일치한다. 이는 LLM 에이전트 기반 시뮬레이션의 신뢰성과 잠재력을 독립적으로 검증한다.

한계점 & 트레이드오프

한계 LLM 추론이 여전히 병목. 플랫폼의 병렬 처리 효율이 아무리 높아도, 대형 모델(Llama3-70B)과 복잡한 프롬프트(Prompt 2) 조합에서는 100만 에이전트 시뮬레이션에 약 10.6시간이 걸린다. LLM 추론 속도 자체가 개선되지 않는 한, 이 병목은 플랫폼 수준에서 해결할 수 없다.
한계 극단적 캐릭터 역할의 불일치. 7세 아이 역할을 부여받은 에이전트가 복잡한 수학적 추론을 수행하는 등, LLM의 고유한 능력이 역할 설정을 무력화하는 경우가 있다. 이는 시뮬레이션 설계 시 모델의 역할 수행 능력을 사전에 평가해야 함을 의미한다.
한계 LLM 사전 지식의 영향. "평균의 2/3 추측"은 고전 게임이론 문제로 훈련 데이터에 포함되어 있을 가능성이 높다. 비율을 2/3에서 51/100로 바꾸면 에이전트 행동이 예상과 달리 변하는 것은 LLM의 사전 지식이 시뮬레이션에 직접 개입함을 보여준다. 진정한 "novel" 시나리오에서 LLM 에이전트가 어떻게 행동할지는 불확실하다.
한계 단순 계산 오류. 에이전트들은 강력한 추론 능력을 보여주지만, 소수점 계산 같은 단순 수치 오류를 범하는 경우가 관찰되었다. 올바른 추론 과정을 거치면서도 잘못된 숫자를 보고하는 경우도 있었다. LLM의 수치 정확성 한계가 시뮬레이션 결과에 잡음을 추가한다.
한계 도메인 특화 프레임워크 대비 최적화 부재. AgentScope는 범용 플랫폼이므로 특정 도메인(예: 사회적 지능 평가에 특화된 SOTOPIA, LLM 서비스 처리량에 특화된 Vidur)에서는 전용 프레임워크보다 성능이 떨어질 수 있다.

영향력 & 후속 연구

이 논문이 여는 가능성은 단순한 플랫폼 개선을 넘어선다. LLM 에이전트를 100만 규모로 실행할 수 있게 되면, 이전에는 불가능했던 연구 질문들이 생긴다:

실용적 기여 AgentScope 소스 코드와 실험 예제가 GitHub에 공개되어 연구자들이 즉시 대규모 시뮬레이션을 시작할 수 있다. to_dist 함수 하나로 기존 코드를 분산 실행으로 전환할 수 있다는 점은 진입 장벽을 크게 낮춘다.

Q&A — 연구자의 고민과 독자의 질문

Q1. 왜 "평균의 2/3 추측" 게임을 테스트베드로 선택했는가?

이 게임은 세 가지 이유에서 이상적인 테스트베드다. 첫째, Nash 균형(0)이 이론적으로 명확하게 정의되어 있어 에이전트의 합리성을 정량적으로 측정할 수 있다. 둘째, 규칙이 단순해 다양한 배경의 에이전트에게 동일한 조건을 제공한다. 셋째, 게임이론 분야에서 인간 대상 실험 결과(Nagel 1995, Camerer 2004)가 풍부해 LLM 에이전트의 결과를 비교·검증할 수 있다.

"These experimental results are consistent with previous studies in social simulation, which confirms the reliability and significant potential of multi-agent-based simulations."
Q2. Ray 같은 기존 분산 프레임워크와 무엇이 다른가?

Ray는 각 액터마다 새 워커 프로세스를 할당하는 방식을 사용한다. 에이전트 수가 수백만에 달하면 프로세스 오버헤드가 막대해진다. AgentScope의 "다대일" 모드는 여러 에이전트가 하나의 프로세스를 공유하므로, LLM API 응답을 기다리는 동안 CPU가 다른 에이전트의 작업을 처리할 수 있다. LLM 에이전트의 특성(대부분의 시간이 LLM 추론 대기)을 고려한 설계다.

평가 논문은 명시하지 않지만, 이 설계 선택은 LLM 에이전트의 I/O 집약적 특성에 최적화된 것이다. 만약 에이전트가 LLM 호출 없이 복잡한 로컬 연산을 수행한다면, 일대일 모드 또는 Ray가 더 유리할 수 있다.

Q3. 시뮬레이션 결과를 얼마나 신뢰할 수 있는가? LLM의 훈련 데이터 오염(contamination) 문제는?

논문은 이 문제를 직접 실험으로 다루었다. 게임 비율을 2/3에서 1/2, 51/100으로 바꾸었을 때 에이전트 행동이 달라지는 것을 관찰하고, 특히 51/100 조건에서는 "이 게임은 '평균의 2/3 추측'의 변형입니다"라는 힌트를 추가했을 때만 에이전트가 합리적으로 행동했다. 이는 LLM이 특정 게임에 대한 사전 지식을 갖고 있음을 시사하며, 연구자들은 새로운 시나리오를 설계할 때 이를 반드시 고려해야 한다.

Q4. AgentScope를 내 연구에 바로 사용할 수 있는가?

소스 코드가 GitHub에 공개되어 있으며(modelscope/agentscope), 논문 실험의 전체 예제도 포함되어 있다. to_dist 함수 하나만으로 중앙화된 워크플로우를 분산으로 전환할 수 있어 도입이 비교적 쉽다. 다만 대규모 실험에는 vLLM이 실행 가능한 GPU 클러스터가 필요하다.

Q5. Temperature가 낮으면 에이전트들이 모두 같은 답을 내지 않는가?

논문은 temperature를 0.05, 0.25, 0.50, 1.00으로 바꾸며 1,000명의 에이전트를 테스트했다. 흥미롭게도 temperature가 낮아질수록 표준 편차가 줄어들지만(0.05일 때 6.50, 1.00일 때 8.20), 평균은 크게 변하지 않았다. 즉 temperature는 개별 에이전트의 다양성에 영향을 미치지만, 에이전트 수가 충분히 많을 때 집단 수준의 평균 행동에는 큰 영향을 미치지 않는다. 다양성을 원한다면 temperature를 높게, 재현성을 원한다면 낮게 설정하면 된다.

논문 원본 Figure 아카이브

아래는 논문의 핵심 Figure 원본이다. 각 Figure가 본문 어느 섹션에 해당하는지 함께 표기했다.

Figure 1 - Parallel Execution
Figure 1 (논문 §3.1, p.4): 액터 기반 자동 병렬 실행 예시. 원과 방향 에지는 에이전트와 메시지 전달 흐름을 나타낸다.
Figure 2 - to_dist Workflow Conversion
Figure 2 (논문 §3.1, p.5): to_dist 함수를 통한 중앙화 워크플로우의 분산 워크플로우 자동 변환. 사용자는 초기화 단계에 to_dist 추가 외 수정 불필요.
Figure 4 - Agent-Manager Web Interface
Figure 4 (논문 §3.4, p.7): 대규모 에이전트 관리를 위한 Agent-Manager 웹 기반 시각 인터페이스.
Figure 5 - Scalability Results
Figure 5 (논문 §4.2, p.9): 에이전트 수 및 디바이스 수에 따른 실행 시간 변화. (a)(b) 에이전트 규모, (c)(d) 디바이스 수 변화.
Figure 6 - Reported Number Distributions
Figure 6 (논문 §4.3, p.10): 다양한 LLM과 시스템 프롬프트 조합에서 에이전트가 보고하는 숫자의 분포.
Figure 7 & 8 - Multi-round and Prompt Impact
Figure 7 & 8 (논문 §4.3, §4.4, p.11): 멀티라운드 게임에서 보고 숫자의 수렴 과정(위)과 시스템 프롬프트 유형별 영향(아래).