Como Construir um Servidor MCP em 10 Minutos (para Agentes de Negociação de Estoques)
Todos estão começando a perceber a importância do protocolo de contexto do modelo da Anthropic.
É o primeiro padrão para conectar LLMs aos seus serviços, como Gmail, Slack, GitHub, pesquisa na web – a lista continua – e você pode usá-lo para dar capacidades superiores aos seus LLMs, como memória de longo prazo. Como veremos em alguns minutos, já existem muitos desses servidores MCP por aí para nos conectar a esses diferentes serviços, mas o verdadeiro poder vem em construir o nosso próprio, para que possamos conectar nossos próprios agentes a qualquer serviço que quisermos, tudo usando a simplicidade e o poder do MCP.
Recursos para Construir um Servidor MCP
Você não está familiarizado com o MCP da Anthropic? Mas, em geral, os três principais recursos que uso para aprender sobre o MCP e construir meus próprios servidores MCP são: a documentação oficial do MCP, uma lista de servidores MCP existentes no GitHub e, em seguida, o repositório oficial da Anthropic no GitHub para o SDK Python do MCP.
Deixe-me explicar rapidamente todos esses três, e depois também terei links para eles.
A documentação oficial é muito útil para ter uma noção geral do MCP, e possui páginas para praticamente tudo, incluindo como construir seus próprios servidores e clientes, que usaremos para criar nosso próprio servidor.
Link : Arquivos de Recursos
A lista existente de servidores MCP é muito útil como um ponto de referência. Você pode usar esses servidores como exemplos de como construir o seu próprio, e este é um ótimo repositório de vários servidores que provavelmente vamos querer usar, em geral, para nos ajudar a construir nossos próprios servidores.
LINK: Arquivos de Recursos
E, por último, o Python é a linguagem que usarei para construir servidores MCP. É a mais simples e a mais usada, e portanto, usar isso como orientação geral para como construir servidores MCP especificamente com Python é muito útil.
Demonstração do Servidor Mem0 MCP
Esta é minha nova configuração de desktop Claude atualizada. Este é o servidor MCP que estamos construindo como exemplo.
Este é o código da imagem acima.
{
"mcpServers": {
"mem0": {
"command": "C:\Users\colem\mcp-mem1\venv\Scripts\python.exe",
"args": ["C:\Users\colem\mcp-mem1\src\main.py"],
"env": {
"TRANSPORT": "stdio",
"LLM_PROVIDER": "openai",
"LLM_BASE_URL": "https://api.openai.com/v1",
"LLM_API_KEY": "REDACTED",
"LLM_CHOICE": "gpt-4o-mini",
"EMBEDDING_MODEL_CHOICE": "text-embedding-3-small",
"DATABASE_URL": "REDACTED"
}
},
"supabase": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"-e",
"SUPABASE_URL",
"-e",
"SUPABASE_SERVICE_KEY",
"mcp/supabase"
],
"env": {
"SUPABASE_URL": "REDACTED",
"SUPABASE_SERVICE_KEY": "REDACTED"
}
},
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"C:\Users\colem\OneDrive\Documents\ExampleProject"
]
},
"brave-search": {
"command": "npx",
"args": ["@modelcontextprotocol/server-brave-search"],
"env": {
"BRAVE_API_KEY": "REDACTED"
}
},
"sequential-thinking": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-sequential-thinking"]
},
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"]
},
"stagehand": {
"command": "node",
"args": [
"C:\Users\colem\mcp-server-browsersbase\stagehand\dist\index.js"
],
"env": {
"BROWSERBASE_API_KEY": "bb_live_ALciR803tXuh1hO8QpsmXM4Uegs",
"BROWSERBASE_PROJECT_ID": "82b2b1cd-26db-44f2-a88b-cf4e32d95d62",
"OPENAI_API_KEY": "sk-proj-bJhDbeSC2xgQ6bybSVe7TJQb5e-y6Z9AzZDP9H03Fau2m8uz-QdS9MVHpB0zZMoRAE5BTl1T3BlbkFJUs2qlyTiEfZi_USQ0QVCJAR684r-Q40CQN-c64b5HBPzSeG0t0c0dVCPMc0uXjm15Rh54Y_Ti_cA"
}
},
"archon": {
"command": "c:\Users\colem\TomTomator\archon\iterations\lv3-mcp-support\venv\Scripts\python.exe",
"args": [
"c:\Users\colem\TomTomator\archon\iterations\lv3-mcp-support\mcp_server.py"
],
"cwd": "c:\Users\colem\TomTomator\archon\iterations\lv3-mcp-support"
}
}
}
Compartilhe
Publicar comentário