Sparrow On-Demand MCP
MCP(Model Context Protocol)는 AI의 LLM(Large Language Model:대규모 언어 모델)을 통해 다양한 API 서비스와 안전하게 상호작용할 수 있는 표준 프로토콜입니다. Sparrow On-Demand MCP는 이 기술을 통해 Sparrow On-Demand에서 제공하는 분석 기능을 IDE의 AI 플러그인에서 손쉽게 활용할 수 있도록 제공합니다.
Sparrow On-Demand MCP에서 제공하는 기능은 다음과 같습니다.
- 단일 파일 및 폴더에 대한 보안 분석
- 분석 진행 상황 확인
- 분석 결과 및 분석 규칙 조회
MCP 아키텍처
실행 흐름
샘플 프로젝트로 테스트 분석을 진행해보는 것이 좋습니다. 테스트 분석으로 인증, 분석 요청, 응답 흐름을 미리 확인하세요.
- 로컬 IDE를 Sparrow On-Demand MCP 서버에 연결하는 MCP 클라이언트입니다.
- 사용자가 로컬 IDE의 LLM 채팅 패널에서 명령을 입력할 때 Sparrow On-Demand MCP를 명시함으로써 호출할 수 있습니다.
- Sparrow On-Demand에서 제공하는 NPM 기반의 MCP 서버입니다.
- 로컬 IDE의 LLM 채팅 패널, LLM 서버, Sparrow On-Demand 서버 사이에서 요청을 전달하고 받아올 수 있습니다.
- 요청된 분석을 수행하는 Sparrow On-Demand 서버입니다.
- Sparrow On-Demand 서버는 AWS에서 운영되며 소스코드 분석, 오픈소스 분석, 웹취약점 분석을 수행합니다.
- 로컬 환경에 직접 설치하거나, 상용 클라우드 서비스로 제공되는 LLM(대규모 언어 모델) 서버입니다.
- Sparrow On-Demand의 분석 결과를 바탕으로 안전한 코드를 생성합니다.
설치하기
사전 요구사항
-
Node.js 22 이상 및 npm 설치
-
Sparrow On-Demand API 토큰 필요
Tip: 토큰 발급을 참고하세요.
-
IDE를 플러그인 등을 통해 LLM에 연결
이미 다른 IDE 및 LLM을 사용하시는 경우 추가로 수행해야 하는 요구 사항은 없습니다. 여기서는 Cursor IDE에서 Sparrow On-Demand MCP를 로컬 Ollama에 연결하는 방법을 안내합니다. Ollama 설치 및 설정 방법은 Ollama 공식 문서를 참고하세요.
MCP 패키지 설치
npm을 통해 MCP 패키지를 설치합니다. 전역으로 설치하거나 로컬로 설치하는 방법이 있습니다.
# 전역 설치
npm install -g @sparrowai/sparrow-mcp
# 로컬 설치
npm install @sparrowai/sparrow-mcp
MCP 설정 파일 생성
IDE에 MCP 설정 파일(mcp.json)을 생성하고, Sparrow On-Demand API 토큰을 포함한 설정을 추가합니다.
//전역 설치
{
"mcpServers": {
"sparrow-mcp": {
"command": "node",
"args": ["C:\\Users\\<username>\\AppData\\Roaming\\npm\\node_modules\\@sparrowai\\sparrow-mcp\\dist\\server.js"],
"env": {
"SPARROW_API_KEY": "your-ondemand-token",
"SPARROW_API_URL": "https://ondemand.sparrowcloud.ai",
"OLLAMA_BASE_URL": "http://localhost:11434",
"OLLAMA_MODEL": "gpt-oss:20b",
"NODE_ENV": "development"
}
}
}
}
// 로컬 설치
{
"mcpServers": {
"sparrow-mcp": {
"command": "node",
"args": ["./node_modules/@sparrowai/sparrow-mcp/dist/server.js"]
"env": {
"SPARROW_API_KEY": "API_KEY",
"SPARROW_API_URL": "https://ondemand.sparrowcloud.ai",
"OLLAMA_BASE_URL": "YOUR_OLLAMA_SERVER_URL",
"OLLAMA_MODEL": "gpt-oss:20b",
"NODE_ENV": "development"
}
}
}
}
//전역 설치
{
"mcpServers": {
"sparrow-mcp": {
"command": "node",
"args": ["C:\\Users\\<username>\\AppData\\Roaming\\npm\\node_modules\\@sparrowai\\sparrow-mcp\\dist\\server.js"],
"env": {
"SPARROW_API_KEY": "your-ondemand-token",
"SPARROW_API_URL": "https://ondemand.sparrowcloud.ai",
"OLLAMA_BASE_URL": "http://localhost:11434",
"OLLAMA_MODEL": "gpt-oss:20b",
"NODE_ENV": "development"
}
}
}
}
// 로컬 설치
{
"mcpServers": {
"sparrow-mcp": {
"command": "node",
"args": [".\\node_modules\\@sparrowai\\sparrow-mcp\\dist\\server.js"]
"env": {
"SPARROW_API_KEY": "API_KEY",
"SPARROW_API_URL": "https://ondemand.sparrowcloud.ai",
"OLLAMA_BASE_URL": "YOUR_OLLAMA_SERVER_URL",
"OLLAMA_MODEL": "gpt-oss:20b",
"NODE_ENV": "development"
}
}
}
}
이제 mcp.json 파일을 저장하고 Cursor IDE를 재시작합니다.
사용하기
Sparrow On-Demand MCP 사용 흐름
- Cursor IDE에서 코드를 작성하세요.
- 코드 작성을 마치면 Sparrow MCP를 통해 분석을 수행하도록 LLM에 요청하세요.
- LLM이 Sparrow On-Demand MCP를 통해 코드를 분석하고 결과를 반환합니다.
- 분석 결과를 검토하고 제안된 변경사항 적용하도록 명령하세요.
프롬프트 작성 주의 사항
필수 입력 항목
-
Sparrow On-Demand MCP를 통해 분석을 요청할 때는 명령어에
sparrow mcp를 포함해야 합니다. -
분석하려는
파일 또는 폴더 경로를 명시해야 합니다.
예시
예를 들어, ./Cursor/project/dev/2512.1/test/ 폴더를 Sparrow MCP로 분석해줘.와 같이 작성할 수 있습니다.
Warning: LLM 동작에 따라 MCP가 정상적으로 작동하지 않을 수 있습니다. 무료 버전의 Cursor IDE에서는 OpenAI GPT-4 모델이 기본으로 설정되어 있습니다. GPT-4 모델이 MCP 서버를 인식하지 못하는 경우가 있으므로, 이 경우에는 유료 버전의 Cursor IDE를 사용하거나, 프롬프트에 MCP 서버 경로를 명시하여 LLM이 MCP 서버를 사용하도록 지시해야 합니다.
자동 분석 설정하기
특정한 시점에 자동으로 Sparrow On-Demand MCP를 통해 분석을 수행하도록 설정할 수 있습니다.
-
Cursor의 Settings 창으로 이동하세요.
-
Rules and Commands 탭을 선택하세요.
-
Add Rule 버튼을 클릭하세요.
-
다음과 같이 새로운 규칙을 추가하세요.
새로운 코드가 추가되면 Sparrow On-Demand MCP를 통해 코드를 분석하고 분석 결과를 바탕으로 안전한 코드를 제안한 다음, 해당 코드를 파일에 바로 적용해줘.새로운 코드에 파일 입출력이나 DB 입출력 등 외부 데이터 관련 조작이 포함되어 있으면 Sparrow On-Demand MCP를 통해 코드를 분석하고 분석 결과를 바탕으로 안전한 코드를 제안한 다음, 해당 코드를 파일에 바로 적용해줘. -
Done 버튼을 클릭하여 규칙을 저장하세요.
이제 자동으로 Sparrow On-Demand MCP를 통해 분석이 수행됩니다.