Arbeit mit KI und LLMs - Amazon Location Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Arbeit mit KI und LLMs

KI und LLMs kann die Entwicklung mit Amazon Location Service erheblich beschleunigen, indem es intelligente Unterstützung bei der API-Nutzung, Codegenerierung und Fehlerbehebung bietet. Indem Sie Ihren LLM-Client mit den richtigen MCP-Servern und dem richtigen Kontext konfigurieren, können Sie einen leistungsstarken Entwicklungsassistenten erstellen, der die AWS Services und die Besonderheiten von Amazon Location Service versteht. Durch die Verwendung eines minimalen Kontexts und einer MCP-Konfiguration, wie auf dieser Seite empfohlen, kann sichergestellt werden, dass das LLM-Modell Ihrer Wahl über genügend Kontext verfügt, um zu korrekten Ergebnissen zu führen, ohne das Kontextfenster zu überladen. Dies kann Halluzinationen reduzieren und die Genauigkeit der Ergebnisse erhöhen. Diese Konfiguration stellt außerdem sicher, dass der Wissensgrenzwert des Modells die Qualität der Ergebnisse nicht beeinträchtigt.

Empfohlene MCP-Server

Model Context Protocol (MCP) -Server erweitern die LLM-Funktionen, indem sie Zugriff auf externe Tools, Dokumentation und bieten. APIs Diese MCP-Server sind zwar nicht erforderlich, können dem LLM jedoch dabei helfen, zusätzliche Informationen über den Service zu finden, sodass Sie über die neuesten Amazon Location Service Service-Entwicklerhandbücher auf dem Laufenden bleiben. Für die Entwicklung von Amazon Location Service werden die folgenden MCP-Server empfohlen:

  • aws-knowledge-mcp-server- Zugriff auf AWS Dokumentation, API-Referenzen, bewährte Methoden und Wissensdatenbanken. Erfordert keine AWS Anmeldeinformationen oder Authentifizierung und eignet sich daher ideal für die Suche nach Dokumenten ohne Verwaltung von Anmeldeinformationen.

  • aws-api-mcp-server- Direkte AWS API-Interaktionen und Ausführung von CLI-Befehlen. Erfordert AWS Anmeldeinformationen.

Client-Konfiguration

Konfigurieren Sie Ihren LLM-Client mit den MCP-Servern und verwenden Sie dabei das für Ihren Client geeignete Konfigurationsformat.

Kiro

Installation mit einem Klick:

Manuelle Konfiguration:

Fügen Sie Ihrer Kiro-Agenten-Konfiguration Folgendes hinzu. Weitere Informationen zur Kiro-Konfiguration finden Sie in der Kiro-Dokumentation.

{ "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws", "type": "http" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
VSCode with Copilot

Installation mit einem Klick:

Manuelle Konfiguration:

Fügen Sie Ihrer VSCode mcp.json-Datei Folgendes hinzu. Weitere Informationen zu MCP-Servern in VS Code finden Sie in der Dokumentation. VSCode

{ "servers": { "aws-knowledge-mcp-server": { "type": "http", "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
VSCode with Cline

Manuelle Konfiguration:

Fügen Sie Ihrer Cline MCP-Einstellungsdatei (cline_mcp_settings.json) Folgendes hinzu. Weitere Informationen zur Cline MCP-Konfiguration finden Sie in der Cline-Dokumentation.

{ "mcpServers": { "aws-knowledge-mcp-server": { "type": "streamableHttp", "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "type": "stdio", "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
Cursor

Manuelle Konfiguration:

Fügen Sie Ihrer Cursor-Datei mcp.json Folgendes hinzu. Weitere Informationen zur Cursor-MCP-Konfiguration finden Sie in der Cursor-Dokumentation.

{ "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }
Claude Code

Manuelle Konfiguration:

Fügen Sie MCP-Server mit den Claude-CLI-Befehlen hinzu. Weitere Informationen zur Einrichtung von Claude Code MCP finden Sie in der Claude Code-Dokumentation.

# Add AWS Knowledge MCP Server (HTTP) claude mcp add --transport http aws-knowledge-mcp-server https://knowledge-mcp.global.api.aws # Add AWS API MCP Server (stdio) claude mcp add --transport stdio aws-api-mcp-server -- uvx awslabs.aws-api-mcp-server@latest
Gemini Code Assist

Manuelle Konfiguration:

Fügen Sie Ihrer JSON-Datei mit den Gemini-Einstellungen (~/.gemini/settings.json) Folgendes hinzu. Weitere Informationen zur Gemini Code Assist MCP-Konfiguration finden Sie in der Google Cloud-Dokumentation.

{ "mcpServers": { "aws-knowledge-mcp-server": { "httpUrl": "https://knowledge-mcp.global.api.aws" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } } }

Nützlicher Kontext

Bei der Arbeit mit KI und bei LLMs Amazon Location Service Service-Projekten kann die Bereitstellung eines spezifischen Kontextes der KI helfen, bessere Lösungen zu finden. Wir verbessern ständig unsere veröffentlichten Dokumentationen und Leitfäden, um besser LLMs auf aktuelle Best Practices eingehen zu können. Wir hosten und pflegen jedoch eine Reihe nützlicher Kontexte, die helfen können, während das Modelltraining mit den neuesten Versionen von Amazon Location Service Schritt hält.

Es gibt eine verwaltete Agents.md-Datei, die einen minimalen nützlichen Kontext für die Arbeit mit Amazon Location bietet.

Um diese Kontextdatei zu verwenden, laden Sie sie zunächst lokal herunter:

curl -o path/to/AGENTS.md https://raw.githubusercontent.com/aws-geospatial/amazon-location-docs-resources/main/developer-tools/ai-and-llms/AGENTS.md

Konfigurieren Sie dann Ihren LLM-Client so, dass er die heruntergeladene Datei verwendet:

Kiro

Fügen Sie die lokale Datei zu Ihrer Agentenkonfiguration hinzu:

{ "resources": [ "file://path/to/AGENTS.md" ] }
VSCode with Copilot

Platzieren Sie die heruntergeladene Agents.md-Datei im Stammverzeichnis Ihres Workspace. VSCode wendet die Anweisungen automatisch auf alle Chat-Anfragen an. Um diese Funktion zu aktivieren, stellen Sie den Chat sicher. useAgentsMdDie Dateieinstellung ist aktiviert. Weitere Informationen finden Sie in den benutzerdefinierten Anweisungen in der VSCode Dokumentation.

VSCode with Cline

Platzieren Sie die heruntergeladene Agents.md-Datei in Ihrem Projektstammverzeichnis oder verwenden Sie @-Erwähnungen, um in Ihren Konversationen darauf zu verweisen. Cline erkennt automatisch Projektdateien und Sie können @AGENTS.md in Ihren Eingabeaufforderungen auf den Kontext verweisen. Weitere Informationen zum Kontextmanagement finden Sie in der Cline-Dokumentation.

Cursor

Verwenden Sie @-Erwähnungen, um in Ihren Konversationen auf die heruntergeladene Agents.md-Datei zu verweisen. Sie können mithilfe der Agents.md-Datei auf Dateien verweisen @Files & Folders und dann danach suchen oder die Datei direkt in den Chat ziehen. Weitere Informationen zu @-Erwähnungen finden Sie in der Cursor-Dokumentation.

Claude Code

Fügen Sie die heruntergeladene Agents.md-Datei zu Ihrem Projektverzeichnis hinzu. Sie können sie in die Claude.md-Datei Ihres Projekts aufnehmen oder direkt in Ihrer aktuellen Sitzung darauf verweisen. Weitere Informationen zur Einrichtung von Claude Code MCP finden Sie in der Claude Code-Dokumentation.

Gemini Code Assist

Erstellen Sie eine Gemini.md-Datei in Ihrem Projektstammverzeichnis oder ~/.gemini/GEMINI.md für den globalen Kontext und fügen Sie den Inhalt der heruntergeladenen Agents.md-Datei hinzu. Weitere Informationen zu Kontextdateien finden Sie in der Google Cloud-Dokumentation.

Konfiguration des Kiro Agents

Für Kiro-Benutzer finden Sie hier eine vollständige Agentenkonfigurationsdatei, die sowohl die empfohlenen MCP-Server als auch die Amazon Location Service Service-Kontextdatei enthält:

{ "name": "amazon-location-agent", "description": "Agent configured for Amazon Location Service development", "prompt": null, "mcpServers": { "aws-knowledge-mcp-server": { "url": "https://knowledge-mcp.global.api.aws", "type": "http" }, "aws-api-mcp-server": { "command": "uvx", "args": ["awslabs.aws-api-mcp-server@latest"], "env": { "AWS_REGION": "us-east-1", "READ_OPERATIONS_ONLY": "true" } } }, "tools": [ "@builtin", "@aws-knowledge-mcp-server/aws___read_documentation", "@aws-knowledge-mcp-server/aws___recommend", "@aws-knowledge-mcp-server/aws___search_documentation", "@aws-api-mcp-server/aws___call_aws", "@aws-api-mcp-server/aws___suggest_aws_commands" ], "allowedTools": [ "web_fetch", "web_search", "fs_read", "@aws-knowledge-mcp-server/aws___read_documentation", "@aws-knowledge-mcp-server/aws___recommend", "@aws-knowledge-mcp-server/aws___search_documentation", "@aws-api-mcp-server/aws___suggest_aws_commands" ], "resources": [ "file://path/to/amazon-location-docs-resources/developer-tools/ai-and-llms/AGENTS.md" ], "includeMcpJson": false }