Einsatz und Automatisierung - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Einsatz und Automatisierung

Frage

Beispielantwort

Was sind die Anforderungen für Skalierung und Lastenausgleich?

Intelligentes Routing von Anfragen; automatisches Skalierungssystem; Optimierung für schnelle Kaltstarts durch den Einsatz von Techniken wie Modell-Caching, verzögertem Laden und verteilter Speichersysteme; Entwicklung des Systems zur Bewältigung von unvorhersehbaren Datenverkehrsmustern mit hohem Datenvolumen.

Was sind die Anforderungen für die Aktualisierung und Einführung neuer Versionen?

Blaue/grüne Bereitstellungen, Canary-Releases, fortlaufende Updates und so weiter.

Was sind die Anforderungen für Disaster Recovery und Geschäftskontinuität?

Backup- und Wiederherstellungsverfahren, Failover-Mechanismen, Hochverfügbarkeitskonfigurationen usw.

Was sind die Anforderungen für die Automatisierung der Schulung, Bereitstellung und Verwaltung des generativen KI-Modells?

Automatisierte Trainingspipeline, kontinuierliche Bereitstellung, automatische Skalierung usw.

Wie wird das generative KI-Modell aktualisiert und neu trainiert, sobald neue Daten verfügbar werden?

Durch regelmäßige Umschulungen, inkrementelles Lernen, Transferlernen usw.

Was sind die Anforderungen für die Automatisierung von Überwachung und Verwaltung?

Automatisierte Benachrichtigungen, automatische Skalierung, Selbstheilung usw.

Was ist Ihre bevorzugte Bereitstellungsumgebung für generative KI-Workloads?

Ein hybrider Ansatz, der AWS für Modellschulungen und unsere lokale Infrastruktur für Inferenz verwendet, um die Anforderungen an die Datenresidenz zu erfüllen.

Gibt es spezielle Cloud-Plattformen, die Sie für generative KI-Bereitstellungen bevorzugen?

AWS-Services, insbesondere Amazon SageMaker AI für Modellentwicklung und -bereitstellung und Amazon Bedrock für Basismodelle.

Welche Containerisierungstechnologien ziehen Sie für generative KI-Workloads in Betracht?

Wir möchten Docker-Container standardisieren, die mit Kubernetes orchestriert sind, um die Portabilität und Skalierbarkeit in unserer Hybridumgebung sicherzustellen.

Haben Sie bevorzugte Tools für CI/CD in Ihrer generativen KI-Pipeline?

GitLab für Versionskontrolle und CI/CD-Pipelines, integriert in Jenkins für automatisiertes Testen und Bereitstellen.

Welche Orchestrierungstools ziehen Sie für die Verwaltung generativer KI-Workflows in Betracht?

Apache Airflow für die Workflow-Orchestrierung, insbesondere für Datenvorverarbeitung und Modelltrainingspipelines.

Haben Sie spezielle Anforderungen an die lokale Infrastruktur zur Unterstützung generativer KI-Workloads?

Wir investieren in GPU-beschleunigte Server und Hochgeschwindigkeitsnetzwerke, um Inferenz-Workloads vor Ort zu unterstützen.

Wie planen Sie, die Versionierung und Bereitstellung von Modellen in verschiedenen Umgebungen zu verwalten?

Wir planen, es MLflow für die Modellverfolgung und Versionierung zu verwenden und es in unsere Kubernetes-Infrastruktur zu integrieren, um eine nahtlose Bereitstellung in allen Umgebungen zu gewährleisten.

Welche Tools zur Überwachung und Beobachtbarkeit ziehen Sie für generative KI-Implementierungen in Betracht?

Prometheus für die Erfassung von Metriken und Grafana für die Visualisierung mit zusätzlichen benutzerdefinierten Protokollierungslösungen für die modellspezifische Überwachung.

Wie gehen Sie mit Datenbewegung und Synchronisation in einem hybriden Bereitstellungsmodell um?

Wir werden AWS DataSync für eine effiziente Datenübertragung zwischen lokalen Speichern und automatische Synchronisierungsaufgaben verwenden AWS, die auf der Grundlage unserer Trainingszyklen geplant werden.

Welche Sicherheitsmaßnahmen implementieren Sie für generative KI-Implementierungen in verschiedenen Umgebungen?

Wir werden IAM für Cloud-Ressourcen verwenden, das in unser lokales Active Directory integriert ist, um end-to-end Verschlüsselung und Netzwerksegmentierung zur Sicherung von Datenströmen zu implementieren.