1분반-심포니
프로젝트 개요
기술개발 과제
국문 : AI 코딩 도구를 위한 MCP 기반의 협업 스키마 개발 및 적용 프레임워크 구축
영문 : Framework for Developing and Applying MCP-based Collaborative Schema for AI Coding Tools
과제 팀명
Symphony 팀
지도교수
이경재 교수님
개발기간
2025년 9월 ~ 2025년 12월 (총 4개월)
구성원 소개
서울시립대학교 컴퓨터과학부 20209200** 박*환
서울시립대학교 컴퓨터과학부 20209200** 박*익
서울시립대학교 컴퓨터과학부 20209200** 배*찬
서울시립대학교 컴퓨터과학부 20209200** 이*관
서론
개발 과제의 개요
개발 과제 요약
◇ 과제명: AI 코딩 도구를 위한 MCP 스키마 개발 및 적용 프레임워크 구축
◇ 핵심 개념: 기존의 정적이고 단편적인 코드 스타일 컨벤션을 넘어, 사용자 역할(RBAC)과 파일의 보안 등급이라는 두 가지 핵심 축을 포함하는 '동적 컨벤션'을 정의한다. 이는 최신 '컨텍스트 엔지니어링 2.0(Context Engineering 2.0)' 논문 연구에 기반하여, 인간의 불명확한 의도(고엔트로피)를 AI가 정확히 실행 가능한 형태(저엔트로피)로 변환하는 체계적인 '엔트로피 감소(Entropy Reduction)' 기술을 구현하는 것이다. 이를 모든 LLM 코딩 툴이 이해하고 적용할 수 있도록 이기종 시스템 간 컨텍스트 공유의 표준인 MCP(Model Context Protocol) 형태로 개발된다. 뿐만 아니라, 이후 컨벤션을 지켰는지에 대한 검수 과정도 자동으로 진행하여 코드 퀄리티를 유지할 수 있다.
◇ 개발 목표: MCP 표준을 통해 개발자 및 비개발자가 자연어 기반의 직관적인 인터페이스로 안전하게 코드 수정에 참여하고, 모든 LLM 코딩 도구가 조직의 고유한 협업 규칙과 보안 정책을 100% 준수하는 코드를 생성하도록 유도한다. 단순한 자동화를 넘어, AI 에이전트가 조직의 맥락을 완벽히 이해하고 협업하는 '컨텍스트 협력(Context-Cooperative)' 시스템을 지향한다. 개발자는 반복적인 검토 및 통합 과정을 자동화하여 생산성을 극대화하며, 직군 간의 사일로를 허물고 공동의 목표를 향해 시너지를 창출하는 차세대 지능형 개발 협업 생태계를 구축하는 것을 목표로 한다.
◇ 기대 효과: GitHub Copilot, Claude Code 등 기존 LLM 코딩 도구를 사용하는 개발 팀이 MCP를 손쉽게 도입하여, 최근 바이브 코딩의 가장 큰 화두인 코드 퀄리티 문제를 해소하고 제품의 시장 출시 기간을 획기적으로 단축시킨다. 특히 AI 에이전트 시대(Era 2.0)에 필수적인 '컨텍스트 격리(Context Isolation)'와 '최소 충분 원칙(Minimal Sufficiency Principle)'을 적용함으로써, AI 도입의 가장 큰 장벽인 보안 우려와 할루시네이션 문제를 기술적으로 해결한다.
개발 과제의 배경 및 효과
◇ 배경
● (만성적인 협업의 비효율성 및 높은 상호작용 비용) 현대 제품 개발은 여러 직군의 협업이 필수적이지만, 현실은 이상과 다르다. 기획자의 워딩 수정, 디자이너의 UI 픽셀 조정 등 간단한 요청조차도 복잡하고 긴 파이프라인(Jira → Slack → 개발 → 배포)을 거치고 있다. 앞의 논문에서 지적하듯, 인간과 기계(시스템) 사이의 '인지적 격차(Cognitive Gap)'로 인해 발생하는 높은 '인간-AI 상호작용 비용'은 조직의 민첩성을 저해하는 가장 큰 요인이다. 이러한 커뮤니케이션 오류와 시간 지연은 단순한 비효율을 넘어 시장 경쟁력을 약화시키고 있다.
● (지능화된 도구의 한계: 맥락 부재와 컨텍스트 오염) GitHub Copilot과 같은 LLM 코딩 도구는 개발 생산성을 향상시켰지만, 근본적으로 '조직의 맥락'을 이해하지 못한다. 범용 데이터로 학습된 모델은 조직 고유의 보안 정책이나 협업 규칙과 같은 '외부 맥락'이 결여되어 있어, 엉뚱하거나 위험한 코드를 생성하는 '컨텍스트 오염'이나 '할루시네이션'을 유발하게 된다. 예를 들어 "결제 코드는 시니어만 수정 가능"과 같은 규칙은 LLM이 알 수 없기 때문에 비개발자의 직접 기여는 예측 불가능한 사이드 이펙트의 위험성 때문에 불가능한 영역으로 남아있다.
◇ 도입 효과
● (개발자 경험의 질적 향상: 사후 대응에서 사전 설계로) 개발자는 더 이상 LLM의 저품질 코드에 대한 반복적인 수정 업무에 시간을 낭비하지 않게 된다. 시스템이 사전에 정의된 컨텍스트 내에서 작동하므로, 에러를 사후에 수정하는 것이 아니라 개발의 첫 단계부터 품질을 관리하는 'Self-Baking(자가 지식화)' 프로세스가 가능해진다. 이를 통해 개발자는 아키텍처 설계 등 고부가가치 핵심 업무에 집중하여 직무 만족도를 높일 수 있다.
● (개발 속도의 혁신적 극대화) 비개발자가 안전이 보장된 범위 내에서 직접 코드 수정에 참여함으로써, 단순 요청 처리 시간을 '수일'에서 '수분' 단위로 압축한다. 이는 논문에서 제시하는 '에이전트 중심 지능(Agent-Centric Intelligence)' 단계의 협업 모델로, 인간의 의도가 즉각적으로 제품에 반영되는 초고속 애자일 스프린트를 가능하게 한다.
● (견고한 코드 품질 및 내장형 보안: 컨텍스트 격리 기술 적용) AI는 MCP에 명시된 동적 컨벤션(코드 스타일, 보안 등급, 접근 제어)을 통해서만 코드를 생성한다. 이는 컨텍스트 엔지니어링의 핵심인 '기능적 컨텍스트 격리(Functional Context Isolation)'를 구현한 것으로, AI가 접근해서는 안 되는 정보나 권한을 원천적으로 차단한다. 이를 통해 인적 실수 및 보안 취약점을 예방하고, 모든 코드 기여가 조직의 표준을 준수하도록 강제한다.
● (쉬운 도입 및 표준화 선점) 몇 단계의 설정만으로 기존 시스템에 통합되어 즉시 사용할 수 있다. 특히 파편화된 AI 도구들을 MCP라는 표준 프로토콜로 연결하는 'Cross-System Context Sharing' 전략은 향후 폭발적으로 증가할 다양한 AI 에이전트들을 단일한 거버넌스 하에 통합 관리할 수 있는 기반이 된다. 이는 단순한 도구 도입을 넘어, 미래형 AI 협업 인프라를 선제적으로 구축하는 효과를 가지게 된다.
개발 과제의 목표 및 내용
◇ 최종 목표: 모든 LLM 코딩 도구에 플러그인 형태로 쉽게 통합 가능한 동적 컨벤션 MCP의 공개 표준을 정의하고, 이를 실제로 적용 및 검증하는 프레임워크를 개발.
◇ 개발 내용
(결과물 1) MCP 컨벤션 서버
● 모든 LLM과 개발 도구가 동적 컨벤션을 일관되게 이해하고 활용할 수 있도록 하는 '범용 컨벤션 양식'를 정의했다.
● (형식)범용성과 가독성을 고려하여 JSON 형식의 표준화된 스키마를 설계한다. 이 파일은 프로젝트의 루트 디렉토리에 .mcp.json 형태로 위치하거나 저희가 제공하는 서버에 저장된다.
- 컨벤션 상세 내용
● 정적 규칙
● ESLint, Prettier 등 기존 린터 및 포맷터 설정 파일(.eslintrc.json, .prettierrc)의 경로를 지정하거나, 핵심 규칙(들여쓰기, 따옴표 종류 등)을 직접 내장하여 일관성을 강제한다. ● 네이밍 컨벤션(component-pascal-case, function-camel-case), 주석 스타일(JSDoc 강제) 등 검증이 가능한 모든 규칙을 포함한다.
● 동적 규칙
● (파일 보안 등급) Glob 패턴을 사용하여 파일 및 디렉토리 경로별로 보안 등급(PUBLIC, INTERNAL, SECRET)을 상세하게 정의했다. (예: "src/assets//*": "PUBLIC", "src/components//.css": "PUBLIC", "src/hooks/.js": "INTERNAL", "src/core/payment/**/*.js": "SECRET") ● (역할 기반 접근 제어) 마케터, 기획자, 주니어/시니어 개발자 등 조직의 역할을 정의하고, 각 역할이 파일 보안 등급별로 어떤 권한(read, propose, edit)을 갖는지 명시적인 매트릭스 형태로 명시한다. 이 매트릭스는 누가 어떤 유형의 파일에 대해 아이디어를 제안만 할 수 있는지, 혹은 직접 수정까지 할 수 있는지를 명확히 규정하는 시스템의 핵심이다.
(결과물 2) 동적 컨벤션 검증을 위한 도구를 실제 개발 현장에서 즉시 활용할 수 있도록, 기존 CI/CD 파이프라인에 완벽하게 통합되는 경량화해 제공한다.
● 방식: Plug-and-Play 방식
● 별도의 서버나 복잡한 설정 없이, GitHub 저장소의 .github/workflows 디렉토리 내 워크플로우 파일에 단 몇 줄의 YAML 코드를 추가하는 것만으로 즉시 사용 가능하도록 설계했다.
● 핵심 작동 워크플로우
● (트리거) 개발자 또는 비개발자가 Pull Request(PR)를 생성하거나 업데이트할 때 자동으로 실행된다.
● (컨벤션 로딩) Action이 실행되면, .mcp.json 파일을 찾아와 동적 컨벤션 규칙을 메모리에 로드한다.
● (변경사항 분석) git diff를 통해 해당 PR에서 변경된 파일들의 목록과 내용을 분석합니다.
● (권한 검증) PR 작성자의 GitHub 팀 역할을 기준으로 MCP의 rbac 규칙과 변경된 파일의 security_levels를 대조하여 수정 권한이 있는지 확인한다.
● (정적 규칙 검증) MCP의 static_rules에 따라 린팅 및 포매팅 검사를 수행한다.
● 실시간 피드백 제공
성공 시: "MCP Convention Check Passed"와 같은 명확한 상태 메시지를 남기고, PR이 병합될 수 있도록 체크를 통과시킨다.
실패 시: PR 병합을 자동으로 차단하고, 실패 원인을 명확하게 설명하는 코멘트를 PR에 직접 남깁니다. 예를 들어, 권한이 없는 파일을 수정했을 경우, 해당 파일의 해당 라인에 “@작성자,
'마케터' 역할은 INTERNAL 등급의 이 파일을 수정할 수 없다. 개발팀의 검토를 요청해주세요.“ 와 같이 구체적이고 실행 가능한 피드백을 제공하여 개발자의 리뷰 없이도 문제를 즉시 인지하고
해결할 수 있도록 돕는다.
관련 기술의 현황
관련 기술의 현황 및 분석(State of art)
- 전 세계적인 기술현황
◇ MCP 동향 ● Microsoft는 Build 2025에서 Windows 11 핵심 레이어에 MCP 적용을 발표, Copilot Studio, Azure AI Foundry에도 통합한다. GitHub, Windows, Copilot을 아우르는 표준으로 확산 중이다. • MCP는 JSON-RPC over HTTP 기반, 단순 구조와 스트리밍을 지원한다. 이에 이식성 높고 개발 도구에 쉽게 적용 가능하다. • LLM, 에이전트, 외부 시스템을 연결하는 표준 인터페이스이다.
◇ 협업 트렌드 • 협업 과정은 티켓→리뷰→배포 등 작은 수정도 복잡한 파이프라인으로 비효율적으로 동작한다. • Notion, Slack 같은 통합 도구는 확산 중이나, 실제 코드 변경은 여전히 개발자가 담당하고 있다. • 글로벌 환경에서 비동기 협업(PR 리뷰, 자동 코멘트 등)이 늘지만, 규칙 검증은 사람의 부담이 존재한다.
◇ AI 코딩 보조 기술 ● 지난 2~3년간 AI 코드 어시스턴트(자동완성, 코드 생성, 리뷰 등) 채택이 급증하고 있으며, 절반 이상 조직에서 활용중이다. (Google & IDC 보고서 인용) ● 그러나 개발자들은 AI 솔루션이 거의 맞지만, 완전히는 아니라는 점이 가장 큰 걸림돌임을 보고하고 있다. 또한 AI 생성 코드의 디버깅에 많은 시간이 소요됨을 이야기한다. (Ars Technica 보고서 인용) ● 도구들이 단순한 코드 생성 보조를 넘어 조직의 SDLC(소프트웨어 개발 생명주기)에 통합됨에 따라, 누가 어떤 파일을 어떻게 수정할 수 있는지, 보안 등급, 내부 규정 준수, 변경 이력 등을 보장하는 메커니즘이 요구되는 상황이다.
◇ 과제 연결점 • MCP 인터페이스를 지원함으로써 여러 LLM, 에이전트가 우리의 도구를 인식할 수 있다. LLM, 에이전트가 도구를 직접 활용하기에, 사용자는 별다른 사용법을 이해하지 않고도 우리의 도구를 사용할 수 있다. 이를 통해 도구 도입 진입장벽을 매우 낮출 수 있다. • 컨벤션을 지속적으로 적용하고 검증하므로, 비개발자도 안전 범위 내 참여 가능하므로 협업 효율과 품질을 동시에 개선할 수 있다.
- 특허조사 및 특허 전략 분석
c) 특허조사
◇ 특허 1: 소스코드 해설을 포함한 질의응답 서비스 제공 장치 및 방법 • 공개번호: 10-2023-0045150 • 출원인: 주식회사 랭코드 • 주요 내용: 사용자가 소스코드를 포함한 질문을 입력하면, 서버가 자체 소스코드 DB를 기반으로 해당 코드의 의미를 분석하여 자연어로 된 '해설'을 생성하고 답변해주는 챗봇 기술이다. 즉, 작성된 코드의 의미를 이해하고 설명하는 데 중점을 둔다.
◇ 특허 2: 프로그램 소스코드의 AI학습을 통한 프로그램 자동 코딩 가이드 시스템 • 공개번호: 10-2024-0130648 • 출원인: 주식회사 가치플레이 • 주요 내용: 품질이 검증된 소스코드들을 코드 DB에 등록하고, 사용자의 요구사항에 맞춰 AI가 코드 DB에서 적합한 코드를 가져오거나 새로 생성하여 프로그램을 자동으로 완성하는 시스템이다. 코드의 재사용과 자동 생성을 통한 생산성 향상에 초점을 맞춘다.
◇ 특허 3: 코드 리뷰 서비스 제공 방법 및 장치 • 공개번호: 10-2025-0109946 • 출원인: 숭실대학교산학협력단 • 주요 내용: 개발자가 외부 저장소(GitHub 등)와 연동하여 코드를 공유하면, 다른 개발자들이 코드 라인별로 리뷰를 작성할 수 있는 플랫폼이다. AI를 활용해 리뷰 내용에 대한 태그를 자동으로 생성하는 등 커뮤니티 기반의 코드 검토 과정을 효율화하는 데 중점을 둔다.
라. 특허전략
◇ 차별점 1: '선제적 거버넌스' vs '사후 대응/보조' • 기존 특허들은 코드 해설·생성·리뷰 등 사후적, 보조적 기능에 그쳤지만, 본 과제의 MCP는 코드 생성, 수정 시점에 규칙을 강제하여 위반을 사전에 차단하는 거버넌스를 제공한다는 점에서 차별화한다.
◇ 차별점 2: '동적/상황인지 규칙' vs '정적/일반 규칙' • 기존 기술이 스타일, 문법 등의 정적 규칙에 머무는 반면, 본 과제는 역할(RBAC)에 따라 규칙이 달라지는 컨벤션을 도입해 조직의 정책과 협업 맥락까지 반영하는 진보된 기술이다.
◇ 차별점 3: '범용 표준 프레임워크' vs '독자적 플랫폼' • 분석된 특허들이 개별 플랫폼에 종속된 반면, 본 과제는 모든 LLM 코딩 도구에 플러그인 형태로 연동 가능한 공개 표준(MCP)과 프레임워크를 개발하여, 높은 호환성과 확장성을 확보하고 차세대 협업 생태계 경쟁력을 강화한다.
- 기술 로드맵
◇ 단기 (2025~2026) – 표준 정립 및 초기 구현 • 스키마 정의: JSON 기반 동적 컨벤션 스키마 설계 • MCP 서버 제공: 컨벤션 관리 및 검증에 대한 도구 제공 • 제한적인 Linter 통합, RBAC 접근 제어 구현, LLM validation 구현
◇ 중기 (2026~2027) – 생태계 확장 • IDE/개발도구 통합: VS Code, JetBrains, Cursor, GitHub Copilot 플러그인 제공 • 더 많은 Linter 도구 통합 • 더 많은 LLM Provider 통합 • ML 기반 분석: 반복 위반 패턴 학습 후 지표화하여 LLM Provider의 성능지표 추출
◇ 장기 (2027~2028) – 지능형 협업 플랫폼 • 성능지표에 따른 적절한 LLM Provider 동적 선택 • AI 보조 협업: 자동 코드 리뷰 코멘트 제공 • 산업별 템플릿: 금융, 의료, 공공 등 규제 준수형 규칙 세트 배포 • 확장 거버넌스: LDAP/SAML 연동, 멀티팀 환경 RBAC 강화
시장상황에 대한 분석
- 경쟁제품 조사 비교
a) 경쟁제품 조사 비교
- Sourcegraph Cody
- 개요 — Sourcegraph의 코드 그래프(인덱싱/검색) 기반 AI 코딩 어시스턴트로, 대규모·복잡한 코드베이스에 적합하다. 저장소 전체 맥락을 참조하여 코드 작성(write), 수정(fix), 리팩터(refactor) 등 개발 작업에 대한 제안을 제공한다.
- 한계 — 조직 단위의 코드 표준, 보안 정책, 권한 정책을 “정책으로 정의하고 자동 집행(enforcement)하는 기능”은 상대적으로 약하며, 규칙 위반을 PR 단계에서 차단하는 형태의 거버넌스까지 직접 제공하지는 않는다.
- Codespell
- 개요 — 코드 생성 시점에 규칙 기반 엔진으로 컨벤션을 주입하여 팀 산출물의 일관성과 품질을 높이는 도구다. 사후 검증 중심의 기존 린터와 달리, 생성 단계에서 규칙을 반영하도록 유도하는 방식에 강점이 있다.
- 한계 — RBAC(역할 기반 접근제어)를 지원하지 않아 역할/직군별로 “허용 가능한 변경 범위”를 세밀하게 통제하기 어렵다. 또한 적용 가능한 컨벤션 범위가 주로 스타일·구조적 규칙에 집중되어 있으며, 보안·권한과 같은 정책은 별도 도구 또는 추가 체계에 의존하는 경향이 있다.
- 마케팅 전략 제시
◇ SWOT 분석
● Strengths (강점)
● 표준화된 MCP 패키지: Copilot, Claude Code 등 모든 LLM 코딩 툴에 즉시 적용 가능한 호환성을 확보한다.
● RBAC: 단순 텍스트 규칙이 아닌, 사용자 권한과 보안 레벨에 따라 LLM의 동작을 제한한다.
● 비개발자 참여 가능: 자연어 기반의 정책 정의로 조직 전체의 협업 효율성을 높인다.
● 오픈소스 커뮤니티 파워: 전 세계 개발자들이 다양한 언어/프레임워크별 'Context Preset'을 직접 기여하고 확장하는 생태계 구축이 가능하다.
● Weaknesses (약점)
● 초기 데이터 부족: 초기에는 도메인 특화 컨벤션(금융, 의료 등)의 데이터 부족으로 추천 품질의 한계가 존재한다.
● 차별성 입증 필요: 기존 Static Lint/Formatter와의 차별점을 명확히 설득해야 한다.
● 지표화의 어려움: 도구가 효과적인지 입증할 지표를 추출할 때, 설득 가능한 지표를 추출하기 어렵다.
● Opportunities (기회)
● AI 코딩 툴 시장 폭발: Copilot 사용자 1800만+ (2025 기준)의 시장에서 '컨벤션 관리'의 표준으로 자리 잡을 기회를 얻을 수 있다.
● 교육 및 온보딩 시장: 신규 입사자나 학생들에게 코딩 스타일과 비즈니스 로직을 AI를 통해 자연스럽게 체득하게 하는 교육용 툴로 확장 가능하다.
● Context Engineering 2.0의 부상: 단순한 프롬프트 작성이 아니라, AI가 참조해야 할 컨텍스트를 구조적으로 정의하고 최적화하는 기술에 대한 수요가 증가함에 따라, 본 프레임워크의 필요성과 가치가 더욱 부각될 것으로 기대된다.
● Threats (위협)
● 빅테크의 내재화: Microsoft, JetBrains 등이 IDE 자체 기능으로 유사한 '팀 컨벤션 동기화' 기능을 내장할 위험이 존재한다.
● 무료 오픈소스 대체재: 단순한 설정 파일 공유 형태의 경량화된 무료 오픈소스 프로젝트들로 대체될 수 있다.
● 기업 보안 규제: 금융권, 엔터프라이즈 도입 시, 오픈소스 라이선스 및 내부 데이터 유출 우려로 인한 도입이 지연될 수 있다.
● LLM의 발전: AI 모델의 컨텍스트 윈도우가 무한대로 커지고 추론 능력이 비약적으로 상승하여, 별도의 '엔지니어링(최적화)' 없이도 의도를 완벽히 파악하는 시대가 조기에 도래할 가능성이 존재한다.
개발과제의 기대효과
d) 기술적 기대효과
- 개발 효율성 증대
- 본 프레임워크는 컨벤션을 자연어로 정의하고 이를 자동으로 적용·검증함으로써, 개발 과정에서 반복적으로 발생하던 검토, 수정, 재작업 비용을 크게 감소시킨다.
- 개발자는 코드 작성 이후 린트 에러나 조직 규칙 위반을 사후적으로 수정하지 않아도 되며, AI 코딩 도구가 사전에 컨벤션을 인지한 상태에서 코드를 생성하도록 유도된다.
- 특히 기존 린터와의 통합을 통해 정적 규칙에 대한 검증은 빠르고 결정적으로 처리되고, LLM은 의미적 판단이 필요한 영역에만 제한적으로 사용됨으로써 실시간 개발 환경에서도 충분한 성능을 확보할 수 있다.
- 그 결과 개발자는 반복적인 품질 관리 작업에서 벗어나 아키텍처 설계, 핵심 로직 구현 등 고부가가치 업무에 집중할 수 있으며, 전체 개발 사이클의 속도와 안정성이 동시에 향상된다.
- 표준화 촉진
- MCP 기반으로 이기종 시스템 간 컨텍스트 공유를 통한 일관성 확보가 가능하다.
- 프로젝트 내 일관된 코드 스타일 유지는 물론, MCP를 통해 VS Code, GitHub Copilot, Claude 등 서로 다른 시스템 간에도 동일한 컨텍스트와 규칙을 공유할 수 있는 표준 프로토콜을 구축한다.
- 이는 도구의 파편화로 인한 문맥 단절을 막고, 유지보수 시 오류 발생률을 구조적으로 감소시킨다.
- AI 활용도 향상
- 본 과제는 LLM을 단순한 코드 생성 도구가 아닌, 조직의 맥락을 이해하고 준수하는 협업 에이전트로 활용할 수 있도록 한다.
- AI 코딩 도구는 작업에 필요한 컨벤션만을 선택적으로 컨텍스트로 전달받아 코드를 생성하므로, 불필요한 정보로 인한 혼란과 할루시네이션이 구조적으로 감소한다.
- 이는 ‘최소 충분 원칙(Minimal Sufficiency Principle)’을 실제 개발 환경에 적용한 사례로, AI가 항상 명확하고 충분한 정보만을 바탕으로 판단하도록 유도한다.
- 그 결과 AI에 대한 신뢰도가 향상되고, 개발자는 AI를 보조 도구가 아닌 실질적인 협업 파트너로 활용할 수 있게 된다.
- 미래 확장성 및 에이전트 생태계 대응
- 본 프레임워크는 특정 LLM이나 특정 린터에 고정되지 않은 확장 가능한 구조를 갖는다.
- 새로운 린터, 새로운 LLM 프로바이더, 새로운 AI 에이전트가 등장하더라도 기존 컨벤션 스키마와 MCP 인터페이스를 유지한 채 손쉽게 통합할 수 있다.
- 이는 향후 다수의 AI 에이전트가 동시에 협업하는 환경에서도 일관된 규칙과 거버넌스를 유지할 수 있는 기반이 되며, 조직이 AI 기술 변화에 유연하게 대응할 수 있도록 한다.
경제적, 사회적 기대 및 파급효과
내용
기술개발 일정 및 추진체계
개발 일정
내용
구성원 및 추진체계
내용
설계
설계사양
제품의 요구사항
내용
설계 사양
내용
개념설계안
내용
이론적 계산 및 시뮬레이션
내용
상세설계 내용
내용
결과 및 평가
완료 작품의 소개
프로토타입 사진 혹은 작동 장면
내용
포스터
내용
관련사업비 내역서
내용
완료작품의 평가
내용
향후계획
내용
특허 출원 내용
내용
