AWS Analytics category icon Analytik - Überblick über Amazon Web Services

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

AWS Analytics category icon Analytik

Amazon Athena

Amazon Athena ist ein interaktiver Abfrageservice, der es einfach macht, Daten in Amazon S3 mithilfe von Standard-SQL zu analysieren. Athena ist Serverless, weshalb auch keine Infrastruktur eingerichtet oder verwaltet werden muss – und Sie zahlen nur für tatsächlich ausgeführte Abfragen.

Athena ist einfach zu bedienen. Zeigen Sie einfach auf Ihre Daten in Amazon S3, definieren Sie das Schema und beginnen Sie mit der Abfrage mit Standard-SQL. Die meisten Ergebnisse werden innerhalb von Sekunden geliefert. Mit Athena sind keine komplexen ETL-Jobs (Extrahieren, Transformieren und Laden) erforderlich, um Ihre Daten für die Analyse vorzubereiten. Dies macht es jedem mit SQL-Kenntnissen leicht, große Datensätze schnell zu analysieren.

Athena ist out-of-the-box integriert und ermöglicht es Ihnen AWS Glue Data Catalog, ein einheitliches Metadaten-Repository für verschiedene Dienste zu erstellen, Datenquellen zu durchsuchen, um Schemas zu finden, Ihren Katalog mit neuen und geänderten Tabellen- und Partitionsdefinitionen zu füllen und die Schemaversionierung beizubehalten.

Amazon CloudSearch

Amazon CloudSearch ist ein verwalteter Service AWS Cloud , der es einfach und kostengünstig macht, eine Suchlösung für Ihre Website oder Anwendung einzurichten, zu verwalten und zu skalieren. Amazon CloudSearch unterstützt 34 Sprachen und beliebte Suchfunktionen wie Hervorhebung, automatische Vervollständigung und Geodatensuche.

Amazon DataZone

Amazon DataZone ist ein Datenverwaltungsservice, mit dem Sie Daten veröffentlichen und sie über Ihre personalisierte Webanwendung für den Geschäftsdatenkatalog verfügbar machen können. Sie können sicherer auf Ihre Daten zugreifen, unabhängig davon, wo sie gespeichert sind — vor Ort AWS, vor Ort oder in SaaS-Anwendungen wie Salesforce. Amazon DataZone vereinfacht Ihre Erfahrung mit AWS Diensten wie Amazon Redshift, Amazon Athena, AWS Glue AWS Lake Formation, und Amazon. QuickSight

Amazon EMR

Amazon EMR ist die branchenführende Cloud-Big-Data-Plattform für die Verarbeitung riesiger Datenmengen mithilfe von Open-Source-Tools wie Apache Spark, Apache Hive, ApacheHBase, ApacheFlink, Apache Hudi und Presto. Amazon EMR erleichtert die Einrichtung, den Betrieb und die Skalierung Ihrer Big-Data-Umgebungen, indem zeitaufwändige Aufgaben wie die Bereitstellung von Kapazität und die Optimierung von Clustern automatisiert werden. Mit Amazon EMR können Sie Analysen im Petabyte-Bereich zu weniger als der Hälfte der Kosten herkömmlicher On-Premises-Lösungen und mehr als dreimal schneller als Apache Spark-Standardlösungen durchführen. Sie können Workloads auf Amazon EC2 EC2-Instances, auf Amazon Elastic Kubernetes Service (Amazon EKS) -Clustern oder lokal mit Amazon EMR ausführen. AWS Outposts

Amazon FinSpace

Amazon FinSpaceist ein Datenverwaltungs- und Analysedienst, der speziell für die Finanzdienstleistungsbranche (FSI) entwickelt wurde. FinSpace reduziert die Zeit, die Sie für die Suche und Aufbereitung von Petabytes an Finanzdaten aufwenden müssen, um sie für die Analyse bereit zu machen, von Monaten auf Minuten.

Finanzdienstleister analysieren Daten aus internen Datenspeichern wie Portfolio-, Versicherungsmathematik- und Risikomanagementsystemen sowie Petabyte an Daten aus Datenfeeds von Drittanbietern, wie z. B. historische Wertpapierkurse von Börsen. Es kann Monate dauern, die richtigen Daten zu finden, Genehmigungen für den rechtskonformen Zugriff auf die Daten zu erhalten und sie für die Analyse vorzubereiten.

FinSpace macht den Aufbau und die Wartung eines Datenmanagementsystems für Finanzanalysen überflüssig. Damit FinSpace sammeln Sie Daten und katalogisieren sie nach relevanten Geschäftskonzepten wie Anlageklasse, Risikoklassifizierung oder geografischer Region. FinSpace macht es einfach, Daten in Ihrem Unternehmen zu finden und gemeinsam zu nutzen, um Ihren Compliance-Anforderungen gerecht zu werden. Sie definieren Ihre Datenzugriffsrichtlinien an einem zentralen Ort und setzen FinSpace sie durch. Gleichzeitig führen Sie Prüfprotokolle, um Compliance- und Aktivitätsberichte zu erstellen. FinSpace enthält außerdem eine Bibliothek mit mehr als 100 Funktionen wie Zeitbalken und Bollinger-Bändern, mit denen Sie Daten für die Analyse vorbereiten können.

Amazon Kinesis

Amazon Kinesis macht es einfach, Streaming-Daten in Echtzeit zu sammeln, zu verarbeiten und zu analysieren, sodass Sie zeitnahe Einblicke erhalten und schnell auf neue Informationen reagieren können. Amazon Kinesis bietet wichtige Funktionen für die kostengünstige Verarbeitung von Streaming-Daten in jeder Größenordnung sowie die Flexibilität, die Tools auszuwählen, die den Anforderungen Ihrer Anwendung am besten entsprechen. Mit Amazon Kinesis können Sie Echtzeitdaten wie Video, Audio, Anwendungsprotokolle, Website-Clickstreams und IoT-Telemetriedaten für maschinelles Lernen (ML), Analysen und andere Anwendungen aufnehmen. Mit Amazon Kinesis können Sie eingehende Daten verarbeiten und analysieren und sofort reagieren, anstatt warten zu müssen, bis alle Ihre Daten erfasst sind, bevor die Verarbeitung beginnen kann.

Amazon Kinesis bietet derzeit vier Services an: Firehose, Managed Service für Apache Flink, Kinesis Data Streams und Kinesis Video Streams.

Amazon Data Firehose

Amazon Data Firehose ist der einfachste Weg, Streaming-Daten zuverlässig in Datenspeicher und Analysetools zu laden. Es kann Streaming-Daten erfassen, transformieren und in Amazon S3, Amazon Redshift, Amazon OpenSearch Service und Splunk laden und ermöglicht so Analysen nahezu in Echtzeit mit vorhandenen Business Intelligence-Tools und Dashboards, die Sie bereits heute verwenden. Es handelt sich um einen vollständig verwalteten Service, der sich automatisch an den Durchsatz Ihrer Daten anpasst und für den keine laufende Verwaltung erforderlich ist. Außerdem können die Daten vor dem Laden gebündelt, komprimiert, transformiert und verschlüsselt werden, wodurch der Speicherverbrauch am Zielort minimiert und die Sicherheit erhöht wird.

Sie können ganz einfach einen Firehose-Lieferstream aus dem erstellen AWS Management Console, ihn mit wenigen Klicks konfigurieren und damit beginnen, Daten aus Hunderttausenden von Datenquellen an den Stream zu senden, um sie kontinuierlich zu laden AWS— alles in nur wenigen Minuten. Sie können Ihren Delivery Stream auch so konfigurieren, dass die eingehenden Daten automatisch in Spaltenformate wie Apache Parquet und Apache ORC konvertiert werden, bevor die Daten an Amazon S3 geliefert werden, was eine kostengünstige Speicherung und Analyse ermöglicht.

Amazon Managed Service für Apache Flink

Amazon Managed Service für Apache Flink ist die einfachste Methode, Streaming-Daten zu analysieren, umsetzbare Erkenntnisse zu gewinnen und auf Ihre Geschäfts- und Kundenbedürfnisse in Echtzeit zu reagieren. Amazon Managed Service für Apache Flink reduziert die Komplexität beim Erstellen, Verwalten und Integrieren von Streaming-Anwendungen mit anderen AWS Services. SQL-Benutzer können mithilfe von Vorlagen und einem interaktiven SQL-Editor problemlos Streaming-Daten abfragen oder ganze Streaming-Anwendungen erstellen. Java-Entwickler können mithilfe von Open-Source-Java-Bibliotheken und AWS -Integrationen schnell anspruchsvolle Streaming-Anwendungen erstellen, um Daten in Echtzeit zu transformieren und zu analysieren.

Amazon Managed Service für Apache Flink kümmert sich um alles, was für die kontinuierliche Ausführung Ihrer Abfragen erforderlich ist, und skaliert automatisch, um dem Volumen und der Durchsatzrate Ihrer eingehenden Daten zu entsprechen.

Amazon-Kinesis-Data-Streams

Amazon Kinesis Data Streams ist ein extrem skalierbarer und langlebiger Echtzeit-Datenstreaming-Service. Kinesis Data Streams kann kontinuierlich Gigabytes an Daten pro Sekunde aus Hunderttausenden von Quellen wie Website-Clickstreams, Datenbankereignisströmen, Finanztransaktionen, Social-Media-Feeds, IT-Protokollen und Standortverfolgungsereignissen erfassen. Die gesammelten Daten sind innerhalb von Millisekunden verfügbar, um Anwendungsfälle für Echtzeitanalysen wie Echtzeit-Dashboards, Erkennung von Anomalien in Echtzeit, dynamische Preisgestaltung und mehr zu ermöglichen.

Amazon Kinesis Video Streams

Amazon Kinesis Video Streams erleichtert das sichere Streamen von Videos von verbundenen Geräten zu AWS Analyse-, ML-, Wiedergabe- und anderen Verarbeitungszwecken. Kinesis Video Streams stellt automatisch die gesamte Infrastruktur bereit und skaliert sie elastisch, die für die Aufnahme von Streaming-Videodaten von Millionen von Geräten erforderlich ist. Außerdem speichert, verschlüsselt und indexiert es dauerhaft Videodaten in Ihren Streams und ermöglicht Ihnen den Zugriff auf Ihre Daten über APIs. easy-to-use Kinesis Video Streams ermöglicht Ihnen die Wiedergabe von Videos für die Live- und On-Demand-Anzeige und die schnelle Erstellung von Anwendungen, die durch die Integration mit Amazon Rekognition Video und Bibliotheken für ML-Frameworks wie Apache MxNet TensorFlow, und OpenCV die Vorteile von Computer Vision und Videoanalyse nutzen.

OpenSearch Amazon-Dienst

Amazon OpenSearch Service (OpenSearch Service) macht es einfach, Daten bereitzustellen, zu sichern, zu bedienen und OpenSearch zu skalieren, um Daten in Echtzeit zu suchen, zu analysieren und zu visualisieren. Mit Amazon OpenSearch Service erhalten Sie easy-to-use APIs und Echtzeitanalysefunktionen für Anwendungsfälle wie Protokollanalysen, Volltextsuche, Anwendungsüberwachung und Clickstream-Analysen mit Verfügbarkeit, Skalierbarkeit und Sicherheit auf Unternehmensniveau. Der Service bietet Integrationen mit Open-Source-Tools wie OpenSearch Dashboards und Logstash für die Datenaufnahme und -visualisierung. Es lässt sich auch nahtlos in andere AWS Dienste wie Amazon Virtual Private Cloud (Amazon VPC), AWS Key Management Service(AWS KMS), Amazon Data Firehose, AWS Identity and Access Management (IAM) AWS Lambda, Amazon Cognito und Amazon integrieren CloudWatch, sodass Sie schnell von Rohdaten zu umsetzbaren Erkenntnissen wechseln können.

Amazon OpenSearch Serverlos

Amazon OpenSearch Serverless ist eine serverlose Option in Amazon OpenSearch Service. Als Entwickler können Sie OpenSearch Serverless verwenden, um Workloads im Petabyte-Bereich auszuführen, ohne Cluster konfigurieren, verwalten und skalieren zu müssen. OpenSearch Sie erhalten dieselben interaktiven Antwortzeiten in Millisekunden wie OpenSearch Service und das mit der Einfachheit einer serverlosen Umgebung.

Die Vektor-Engine für Amazon OpenSearch Serverless bietet eine einfache, skalierbare und leistungsstarke Vektorspeicher- und Suchfunktion, mit der Entwickler ML-erweiterte Sucherlebnisse und generative KI-Anwendungen entwickeln können, ohne die Vektordatenbankinfrastruktur verwalten zu müssen. Zu den Anwendungsfällen für Vektorsuchsammlungen gehören Bildersuche, Dokumentensuche, Musikabruf, Produktempfehlungen, Videosuche, standortbezogene Suche, Betrugserkennung und Anomalieerkennung.

Amazon-Redshift

Amazon Redshift ist das am häufigsten verwendete Cloud-Data Warehouse. Es macht es schnell, einfach und kostengünstig, all Ihre Daten mit Standard-SQL und Ihren vorhandenen Business Intelligence (BI) -Tools zu analysieren. Es ermöglicht Ihnen die Ausführung komplexer analytischer Abfragen für Terabyte bis Petabyte strukturierter und halbstrukturierter Daten mithilfe ausgeklügelter Abfrageoptimierung, spaltenweiser Speicherung auf Hochleistungsspeichern und massiver parallel Abfragevervollständigung. Die meisten Ergebnisse sind innerhalb von Sekunden verfügbar. Sie können für nur 0,25 USD pro Stunde ohne Verpflichtungen klein anfangen und für 1.000 USD pro Terabyte pro Jahr auf Petabyte an Daten skalieren, was weniger als einem Zehntel der Kosten herkömmlicher lokaler Lösungen entspricht.

Amazon Redshift Serverless

Amazon Redshift Serverless erleichtert die Ausführung und Skalierung von Analysen, ohne dass Sie Ihre Data Warehouse-Infrastruktur verwalten müssen. Entwickler, Datenwissenschaftler und Analysten können datenbankübergreifend, Data Warehouses und Data Lakes arbeiten, um Berichts- und Dashboardanwendungen zu erstellen, Analysen nahezu in Echtzeit durchzuführen, Daten gemeinsam zu nutzen und gemeinsam an ihnen zu arbeiten sowie Modelle für maschinelles Lernen (ML) zu erstellen und zu trainieren. Gehen Sie innerhalb von Sekunden von großen Datenmengen zu Erkenntnissen über. Amazon Redshift Serverless stellt die Data Warehouse-Kapazität automatisch bereit und skaliert sie intelligent, um selbst für die anspruchsvollsten und unberechenbarsten Workloads eine schnelle Leistung zu bieten, und Sie zahlen nur für das, was Sie tatsächlich nutzen. Laden Sie einfach Daten und beginnen Sie sofort mit der Abfrage im Amazon Redshift Query Editor oder in Ihrem bevorzugten Business Intelligence (BI) -Tool. Genießen Sie weiterhin das beste Preis-Leistungs-Verhältnis und die vertrauten SQL-Funktionen in einer easy-to-use Umgebung ohne Verwaltungsaufwand.

Amazon QuickSight

Amazon QuickSight ist ein schneller, cloudgestützter Business Intelligence (BI) -Service, der es Ihnen leicht macht, allen Mitarbeitern Ihres Unternehmens Einblicke zu bieten. QuickSight ermöglicht es Ihnen, interaktive Dashboards zu erstellen und zu veröffentlichen, auf die Sie über Browser oder Mobilgeräte zugreifen können. Sie können Dashboards in Ihre Anwendungen einbetten und Ihren Kunden so leistungsstarke Self-Service-Analysen bieten. Amazon QuickSight kann problemlos auf Zehntausende von Benutzern skaliert werden, ohne dass Software installiert, Server bereitgestellt oder Infrastruktur verwaltet werden muss.

AWS Clean Rooms

AWS Clean Roomshilft Unternehmen und ihren Partnern dabei, ihre kollektiven Datensätze einfacher und sicherer zu analysieren und gemeinsam daran zu arbeiten — ohne die zugrunde liegenden Daten auszutauschen oder zu kopieren. Damit AWS Clean Rooms können Kunden innerhalb von Minuten einen sicheren Datenraum einrichten und mit jedem anderen Unternehmen zusammenarbeiten, AWS Cloud um einzigartige Einblicke in Werbekampagnen, Investitionsentscheidungen sowie Forschung und Entwicklung zu gewinnen.

AWS Data Exchange

AWS Data Exchangemacht es einfach, Daten von Drittanbietern in der Cloud zu finden, zu abonnieren und zu verwenden. Zu den qualifizierten Datenanbietern gehören führende Marken wie Reuters, das Daten aus über 2,2 Millionen einzigartigen Nachrichten pro Jahr in mehreren Sprachen kuratiert, Change Healthcare, das jährlich mehr als 14 Milliarden Gesundheitstransaktionen und Reklamationen im Wert von 1 Billion US-Dollar verarbeitet und anonymisiert, Dun & Bradstreet, das eine Datenbank mit mehr als 330 Millionen globalen Geschäftsdaten verwaltet, und Foursquare, dessen Standortdaten von 220 Millionen Einzelverbrauchern stammen und mehr als 60 Millionen globale Handelsplätze umfassen.

Sobald Sie ein Datenprodukt abonniert haben, können Sie die AWS Data Exchange API verwenden, um Daten direkt in Amazon S3 zu laden und sie dann mit einer Vielzahl von AWS Analyse - und ML-Services zu analysieren. Zum Beispiel können Sachversicherer Daten abonnieren, um historische Wettermuster zu analysieren und so die Versicherungsschutzanforderungen in verschiedenen Regionen zu kalibrieren; Restaurants können Bevölkerungs- und Standortdaten abonnieren, um optimale Expansionsregionen zu identifizieren; akademische Forscher können Studien zum Klimawandel durchführen, indem sie Daten zu Kohlendioxidemissionen abonnieren; und medizinisches Fachpersonal kann aggregierte Daten aus historischen klinischen Studien abonnieren, um ihre Forschungsaktivitäten zu beschleunigen.

Für Datenanbieter ist es AWS Data Exchange einfach, die Millionen von AWS Kunden zu erreichen, die in die Cloud migrieren, da der Aufbau und die Wartung einer Infrastruktur für Datenspeicherung, -bereitstellung, -abrechnung und -berechtigung entfällt.

AWS Data Pipeline

AWS Data Pipelineist ein Webservice, mit dem Sie Daten in bestimmten Intervallen zuverlässig verarbeiten AWS und zwischen verschiedenen Rechen- und Speicherdiensten sowie lokalen Datenquellen verschieben können. Mit können Sie regelmäßig auf Ihre Daten zugreifen AWS Data Pipeline, wo sie gespeichert sind, sie in großem Umfang transformieren und verarbeiten und die Ergebnisse effizient an AWS-Services wie Amazon S3, Amazon RDS, AmazonDynamoDB und Amazon EMR übertragen.

AWS Data Pipeline hilft Ihnen dabei, auf einfache Weise komplexe Datenverarbeitungs-Workloads zu erstellen, die fehlertolerant, wiederholbar und hochverfügbar sind. Sie müssen sich nicht darum kümmern, die Verfügbarkeit von Ressourcen sicherzustellen, Abhängigkeiten zwischen Aufgaben zu verwalten, vorübergehende Fehler oder Timeouts bei einzelnen Aufgaben erneut zu versuchen oder ein Fehlerbenachrichtigungssystem einzurichten. AWS Data Pipeline ermöglicht es Ihnen auch, Daten zu verschieben und zu verarbeiten, die zuvor in lokalen Datensilos gesperrt waren.

AWS Auflösung von Entitäten

AWS Entity Resolution ist ein Dienst, mit dem Sie verwandte Datensätze, die in mehreren Anwendungen, Kanälen und Datenspeichern gespeichert sind, abgleichen und verknüpfen können, ohne eine benutzerdefinierte Lösung erstellen zu müssen. Mithilfe flexibler, konfigurierbarer ML- und regelbasierter Techniken kann AWS Entity Resolution doppelte Datensätze entfernen, Kundenprofile erstellen, indem verschiedene Kundeninteraktionen miteinander verknüpft werden, und Erlebnisse in Werbe- und Marketingkampagnen, Treueprogrammen und E-Commerce personalisieren. Sie können beispielsweise eine einheitliche Ansicht der Kundeninteraktionen erstellen, indem Sie aktuelle Ereignisse wie Anzeigenklicks, abgebrochene Warenkörbe und Käufe mit einer eindeutigen Match-ID verknüpfen.

AWS Glue

AWS Glueist ein vollständig verwalteter ETL-Service (Extrahieren, Transformieren und Laden), der es Kunden erleichtert, ihre Daten für Analysen vorzubereiten und zu laden. Sie können einen ETL-Job mit ein paar Klicks in der erstellen und ausführen AWS Management Console. Sie zeigen einfach AWS Glue auf Ihre Daten AWS, die in gespeichert sind AWS Glue , entdecken Ihre Daten und speichern die zugehörigen Metadaten (wie Tabellendefinition und Schema) im AWS Glue Data Catalog. Nach der Katalogisierung sind Ihre Daten sofort durchsuchbar, abfragbar und für ETL verfügbar.

AWS Glue Data Integration Engines ermöglichen den Zugriff auf Daten mithilfe von Apache Spark und Python. PySpark Mit der Hinzufügung von AWS Glue for Ray können Sie Ihre Workloads mithilfe von Ray, einem einheitlichen Open-Source-Compute-Framework, weiter skalieren.

AWS Glue Data Quality kann die Datenqualität von Amazon S3 S3-basierten Data Lakes, Data Warehouses und anderen Datenrepositorien messen und überwachen. Es berechnet automatisch Statistiken, empfiehlt Qualitätsregeln und kann Sie überwachen und Sie benachrichtigen, wenn fehlende, veraltete oder schlechte Daten erkannt werden. Sie können in den AWS Glue Data Catalog und in AWS Glue Data Catalog ETL-Jobs darauf zugreifen.

AWS Lake Formation

AWS Lake Formationist ein Service, der es einfach macht, innerhalb weniger Tage einen sicheren Data Lake einzurichten. Ein Data Lake ist ein zentralisiertes, kuratiertes und gesichertes Repository, in dem alle Ihre Daten gespeichert werden, sowohl in seiner ursprünglichen Form als auch für die Analyse vorbereitet. Mit einem Data Lake können Sie Datensilos aufschlüsseln und verschiedene Arten von Analysen kombinieren, um Erkenntnisse zu gewinnen und bessere Geschäftsentscheidungen zu leiten.

Die Einrichtung und Verwaltung von Data Lakes erfordert heute jedoch viele manuelle, komplizierte und zeitaufwändige Aufgaben. Diese Arbeit umfasst das Laden von Daten aus verschiedenen Quellen, das Überwachen dieser Datenflüsse, das Einrichten von Partitionen, das Aktivieren der Verschlüsselung und das Verwalten von Schlüsseln, das Definieren von Transformationsaufgaben und deren Überwachung, das Reorganisieren von Daten in ein Spaltenformat, das Konfigurieren der Einstellungen für die Zugriffskontrolle, das Deduplizieren redundanter Daten, das Abgleichen verknüpfter Datensätze, das Gewähren des Zugriffs auf Datensätze und die Überwachung des Zugriffs im Laufe der Zeit.

Die Erstellung eines Data Lakes mit Lake Formation ist so einfach wie die Definition, wo sich Ihre Daten befinden und welche Datenzugriffs- und Sicherheitsrichtlinien Sie anwenden möchten. Lake Formation sammelt und katalogisiert dann Daten aus Datenbanken und Objektspeichern, verschiebt die Daten in Ihren neuen Amazon S3 S3-Data Lake, reinigt und klassifiziert Daten mithilfe von ML-Algorithmen und sichert den Zugriff auf Ihre sensiblen Daten. Ihre Benutzer können dann auf einen zentralen Datenkatalog zugreifen, der die verfügbaren Datensätze und deren angemessene Verwendung beschreibt. Ihre Benutzer nutzen diese Datensätze dann mit Analyse- und ML-Services ihrer Wahl, wie Amazon EMR für Apache Spark, Amazon Redshift, Amazon Athena und Amazon. SageMaker QuickSight

Amazon Managed Streaming for Apache Kafka (Amazon MSK)

Amazon Managed Streaming for Apache Kafka (Amazon MSK) ist ein vollständig verwalteter Service, mit dem Sie ganz einfach Anwendungen erstellen und ausführen können, die Apache Kafka zur Verarbeitung von Streaming-Daten verwenden. Apache Kafka ist eine Open-Source-Plattform für den Aufbau von Streaming-Daten-Pipelines und -Anwendungen in Echtzeit. Mit Amazon MSK können Sie Apache Kafka-APIs verwenden, um Data Lakes zu füllen, Änderungen in und aus Datenbanken zu streamen und ML- und Analyseanwendungen zu unterstützen.

Apache Kafka-Cluster lassen sich in der Produktion nur schwer einrichten, skalieren und verwalten. Wenn Sie Apache Kafka selbst ausführen, müssen Sie Server bereitstellen, Apache Kafka manuell konfigurieren, Server ersetzen, wenn sie ausfallen, Server-Patches und Upgrades orchestrieren, den Cluster für hohe Verfügbarkeit konzipieren, sicherstellen, dass Daten dauerhaft gespeichert und gesichert sind, Überwachung und Alarme einrichten und Skalierungsereignisse sorgfältig planen, um Laständerungen zu unterstützen. Amazon MSK macht es Ihnen leicht, Produktionsanwendungen auf Apache Kafka zu erstellen und auszuführen, ohne dass Sie Fachwissen im Apache Kafka-Infrastrukturmanagement benötigen. Das bedeutet, dass Sie weniger Zeit mit der Verwaltung der Infrastruktur und mehr Zeit mit der Entwicklung von Anwendungen verbringen.

Mit wenigen Klicks in der Amazon MSK-Konsole können Sie hochverfügbare Apache Kafka-Cluster mit Einstellungen und Konfigurationen erstellen, die auf den bewährten Bereitstellungsmethoden von Apache Kafka basieren. Amazon MSK stellt Ihre Apache Kafka-Cluster automatisch bereit und führt sie aus. Amazon MSK überwacht kontinuierlich den Zustand des Clusters und ersetzt automatisch fehlerhafte Knoten, ohne dass Ihre Anwendung ausfällt. Darüber hinaus schützt Amazon MSK Ihren Apache Kafka-Cluster, indem es ruhende Daten verschlüsselt.