Machine Learning (ML) und künstliche Intelligenz (AI) - Übersicht über Amazon Web Services

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Machine Learning (ML) und künstliche Intelligenz (AI)


   Kategoriesymbol für AWS Machine Learning

Amazon Augmented AI

Amazon Augmented AI (Amazon A2I) ist ein ML-Service, der es einfach macht, die für die menschliche Überprüfung erforderlichen Workflows zu erstellen. Amazon A2I bringt allen Entwicklern eine menschliche Überprüfung, entfernt die undifferenzierte, schwerwiegende Arbeit, die mit dem Aufbau menschlicher Überprüfungssysteme oder der Verwaltung einer großen Anzahl menschlicher Prüfer verbunden ist, unabhängig davon, ob sie auf läuft AWS oder nicht.

Amazon Bedrock

Amazon Bedrock ist ein vollständig verwalteter Service, der Grundlagenmodelle (FMs) von Amazon und führenden KI-Startups über eine API verfügbar macht. Mit der Serverless-Erfahrung von Amazon Bedrock können Sie schnell loslegen, mit FMs experimentieren, sie privat mit Ihren eigenen Daten anpassen und FMs nahtlos in Ihre AWS Anwendungen integrieren und bereitstellen.

Sie können aus einer Vielzahl von Grundlagenmodellen wählen, darunter Amazon Titan, Claude 2 von Anthropic, Command and Embed von Cohere, Jurassic-2 von AI21 Studio und Stable von Stability AI.

Amazon CodeGuru

Amazon CodeGuru ist ein Entwicklertool, das intelligente Empfehlungen zur Verbesserung der Codequalität und zur Identifizierung der teuersten Codezeilen einer Anwendung bereitstellt. Integrieren Sie CodeGuru in Ihren vorhandenen Softwareentwicklungs-Workflow, um Codeüberprüfungen während der Anwendungsentwicklung zu automatisieren und die Leistung der Anwendung in der Produktion kontinuierlich zu überwachen und Empfehlungen und visuelle Hinweise zur Verbesserung der Codequalität, der Anwendungsleistung und zur Senkung der Gesamtkosten bereitzustellen.

Amazon CodeGuru Reviewer verwendet ML und automatisiertes Denken, um kritische Probleme, Sicherheitsschwachstellen und hard-to-find Fehler während der Anwendungsentwicklung zu identifizieren, und gibt Empfehlungen zur Verbesserung der Codequalität.

Amazon CodeGuru Profiler hilft Entwicklern dabei, die teuersten Codezeilen einer Anwendung zu finden, indem es ihnen hilft, das Laufzeitverhalten ihrer Anwendungen zu verstehen, Codeineffizienzen zu identifizieren und zu entfernen, die Leistung zu verbessern und die Rechenkosten erheblich zu senken.

Amazon CodeWhisperer

Amazon CodeWhisperer wurde entwickelt, um die Produktivität von Entwicklern zu verbessern, und bietet ML-gestützte Codeempfehlungen zur Beschleunigung der Entwicklung von C#-, Java-, JavaScriptPython- und TypeScript -Anwendungen. Der Service lässt sich in mehrere integrierte Entwicklungsumgebungen (IDEs) integrieren, darunter JetBrains (IntelliJ IDEA PyCharm WebStorm, und Rider), Visual Studio Code und die AWS Lambda Konsole, und hilft Entwicklern AWS Cloud9, Code schneller zu schreiben, indem ganze Funktionen und logische Codeblöcke generiert werden – oft bestehend aus mehr als 10–15 Codezeilen.

Amazon Comprehend

Amazon Comprehend verwendet ML und natürliche Sprachverarbeitung (NLP), um Ihnen zu helfen, die Erkenntnisse und Beziehungen in Ihren unstrukturierten Daten aufzudecken. Der Service identifiziert die Sprache des Textes, extrahiert Schlüsselphrasen, Orte, Personen, Marken oder Ereignisse, versteht, wie positiv oder negativ der Text ist, analysiert Text mithilfe von Tokenisierung und Sprachteilen und organisiert automatisch eine Sammlung von Textdateien nach Themen. Sie können auch AutoML-Funktionen in Amazon Comprehend verwenden, um einen benutzerdefinierten Satz von Entitäten oder Textklassifizierungsmodellen zu erstellen, die auf die Anforderungen Ihrer Organisation zugeschnitten sind.

Um komplexe medizinische Informationen aus unstrukturiertem Text zu extrahieren, können Sie Amazon Comprehend Medical verwenden. Der Service kann medizinische Informationen wie medizinische Zustände, Patienten, Patienten, Stärken und Häufigkeiten aus einer Vielzahl von Quellen identifizieren, z. B. aus den Notizen der Patienten, den Berichten zu Patienten und den Patientenakten. Amazon Comprehend Medical identifiziert auch die Beziehung zwischen den extrahierten Erkenntnissen und Test-, Behandlung- und Verfahrensinformationen, um die Analyse zu erleichtern. Beispielsweise identifiziert der Service anhand unstrukturierter Patientenhinweise eine bestimmte Menge, Stärke und Häufigkeit im Zusammenhang mit einer bestimmten Menge.

Amazon DevOpsGuru

Amazon DevOpsGuru ist ein ML-gestützter Service, der es einfach macht, die betriebliche Leistung und Verfügbarkeit einer Anwendung zu verbessern. Amazon DevOpsGuru erkennt Verhaltensweisen, die von normalen Betriebsmustern abweichen, sodass Sie Betriebsprobleme erkennen können, lange bevor sie sich auf Ihre Kunden auswirken.

Amazon DevOpsGuru verwendet ML-Modelle, die auf Jahre von Amazon.com und AWS Operational Excellence basieren, um ungewöhnliches Anwendungsverhalten (wie erhöhte Latenz, Fehlerraten, Ressourceneinschränkungen usw.) zu identifizieren und kritische Probleme aufzudecken, die zu potenziellen Ausfällen oder Serviceunterbrechungen führen könnten. Wenn Amazon DevOpsGuru ein kritisches Problem identifiziert, sendet es automatisch eine Warnung und bietet eine Zusammenfassung der zugehörigen Anomalien, die wahrscheinliche Ursache und den Kontext darüber, wann und wo das Problem aufgetreten ist. Wenn möglich, gibt Amazon DevOpsGuru auch Empfehlungen zur Behebung des Problems.

Amazon DevOpsGuru nimmt automatisch Betriebsdaten aus Ihren AWS Anwendungen auf und bietet ein einziges Dashboard, um Probleme in Ihren Betriebsdaten zu visualisieren. Sie können beginnen, indem Sie Amazon DevOpsGuru für alle Ressourcen in Ihrem AWS Konto, Ressourcen in Ihren AWS CloudFormation Stacks oder Ressourcen aktivieren, die nach AWS Tags gruppiert sind, ohne dass eine manuelle Einrichtung oder ML-Erfahrung erforderlich ist.

Amazon Forecast

Amazon Forecast ist ein vollständig verwalteter Service, der ML verwendet, um hochpräzise Prognosen zu liefern.

Unternehmen nutzen heute alles, von einfachen Tabellen bis hin zu komplexer Finanzplanungssoftware, um zu versuchen, zukünftige Geschäftsergebnisse wie Produktnachfrage, Ressourcenbedarf oder Finanzleistung genau vorherzusagen. Diese Tools erstellen Prognosen, indem sie sich eine historische Datenreihe ansehen, die als Zeitreihendaten bezeichnet wird. Solche Tools können beispielsweise versuchen, die zukünftigen Verkäufe eines Arzts vorherzusagen, indem sie sich nur die vorherigen Verkaufsdaten ansehen, wobei davon ausgegangen wird, dass die Zukunft durch die Vergangenheit bestimmt wird. Dieser Ansatz kann Schwierigkeiten haben, genaue Prognosen für große Datenmengen zu erstellen, die unregelmäßige Trends aufweisen. Außerdem können Datenreihen, die sich im Laufe der Zeit ändern (wie Preis, Rabatte, Webdatenverkehr und Anzahl der Mitarbeiter), nicht einfach mit relevanten unabhängigen Variablen wie Produktfunktionen und Speicherorten kombiniert werden.

Basierend auf derselben Technologie, die unter Amazon.com verwendet wird, verwendet Amazon Forecast ML, um Zeitreihendaten mit zusätzlichen Variablen zu kombinieren, um Prognosen zu erstellen. Amazon Forecast erfordert keine ML-Erfahrung, um loszulegen. Sie müssen nur historische Daten sowie zusätzliche Daten angeben, die sich Ihrer Ansicht nach auf Ihre Prognosen auswirken können. Beispielsweise kann sich die Nachfrage nach einer bestimmten Farbe eines Lebensmittels mit den Feiertagen und dem Standort ändern. Diese komplexe Beziehung ist nur schwer selbst zu bestimmen, aber ML eignet sich ideal, um sie zu erkennen. Sobald Sie Ihre Daten bereitgestellt haben, wird Amazon Forecast sie automatisch untersuchen, identifizieren, was aussagekräftig ist, und ein Prognosemodell erstellen, das Vorhersagen treffen kann, die bis zu 50 % genauer sind, als Zeitreihendaten allein anzusehen.

Amazon Forecast ist ein vollständig verwalteter Service, sodass keine Server bereitgestellt werden müssen und keine ML-Modelle erstellt, trainiert oder bereitgestellt werden müssen. Sie zahlen nur für das, was Sie tatsächlich nutzen, und es fallen keine Mindestgebühren und keine Vorauszahlungen an.

Amazon Fraud Detector

Amazon Fraud Detector ist ein vollständig verwalteter Service, der ML und mehr als 20 Jahre Fachwissen zur Betrugserkennung von Amazon nutzt, um potenziell betrügerische Aktivitäten zu identifizieren, damit Kunden mehr Online-Betrug schneller erkennen können. Amazon Fraud Detector automatisiert die zeitaufwändigen und teuren Schritte zum Erstellen, Trainieren und Bereitstellen eines ML-Modells zur Betrugserkennung, sodass Kunden die Technologie einfacher nutzen können. Amazon Fraud Detector passt jedes erstellte Modell an den eigenen Datensatz eines Kunden an, sodass die Genauigkeit von Modellen höher ist als die aktuelle Einheitsgröße für alle ML-Lösungen. Und da Sie nur für das zahlen, was Sie tatsächlich nutzen, vermeiden Sie hohe Vorabkosten.

Amazon Comprehend Medical

In der Vergangenheit hat AWS eine digitale Transformation im Gesundheitswesen beobachtet, wobei Organisationen täglich riesige Mengen an Patienteninformationen erfassen. Diese Daten sind jedoch oft unstrukturiert und der Prozess zum Extrahieren dieser Informationen ist arbeitsintensiv und fehleranfällig. Amazon Comprehend Medical ist ein HIPAA-berechtigter Dienst für die natürliche Sprachverarbeitung (NLP), der Machine Learning verwendet, der vortrainiert wurde, um Gesundheitsdaten aus medizinischem Text wie Rezepten, Verfahren oder Diagnosen zu verstehen und zu extrahieren. Amazon Comprehend Medical kann Ihnen dabei helfen RxNorm, Informationen aus unstrukturiertem medizinischem Text genau und schnell mit medizinischen Onts wie ICD-10-CM und SNOMED CT zu extrahieren und so die Bearbeitung von Versicherungsansprüchen zu beschleunigen, die Populationsintegrität zu verbessern und die P-Klassifizierung zu beschleunigen.

Amazon Kendra

Amazon Kendra ist ein intelligenter Suchservice, der von ML unterstützt wird. Amazon Kendra gestaltet die Unternehmenssuche nach Ihren Websites und Anwendungen neu, sodass Ihre Mitarbeiter und Kunden die gesuchten Inhalte leicht finden können, auch wenn sie über mehrere Standorte und Inhaltsrepositories in Ihrer Organisation verteilt sind.

Mit Amazon Kendra können Sie die Suche nach unstrukturierten Daten beenden und bei Bedarf die richtigen Antworten auf Ihre Fragen finden. Amazon Kendra ist ein vollständig verwalteter Service, sodass keine Server bereitgestellt werden müssen und keine ML-Modelle erstellt, trainiert oder bereitgestellt werden müssen.

Amazon Lex

Amazon Lex ist ein vollständig verwalteter Service für künstliche Intelligenz (KI) zum Entwerfen, Erstellen, Testen und Bereitstellen von Konversationsschnittstellen in jeder Anwendung mithilfe von Sprache und Text. Lex bietet die erweiterten Deep-Learning-Funktionen der automatischen Spracherkennung (ASR), um Sprache in Text umzuwandeln, und das natürliche Sprachwissen (NLU), um die Absicht des Textes zu erkennen, Sie zu ermöglichen, Anwendungen mit sehr interessanten Benutzererlebnissen und echten Konversationsinteraktionen zu erstellen und neue Kategorien von Produkten zu erstellen. Mit Amazon Lex sind jetzt die gleichen Deep-Learning-Technologien, die Amazon Alexa unterstützen, für jeden Entwickler verfügbar, sodass Sie schnell und einfach ausgeklügelte, natürliche Sprach-, Konversationsbots („Chatbots“) und sprachgesteuerte Interactive Voice Response (IVR)-Systeme erstellen können.

Amazon Lex ermöglicht es Entwicklern, Konversations-Chatbots schnell zu erstellen. Mit Amazon Lex ist keine Deep-Learning-Erfahrung erforderlich. Um einen Bot zu erstellen, geben Sie einfach den grundlegenden Gesprächsablauf in der Amazon Lex-Konsole an. Amazon Lex verwaltet den Dialog und passt die Antworten in der Konversation dynamisch an. Mithilfe der Konsole können Sie den Text- oder Stimme-Chatbot erstellen, testen und veröffentlichen. Sie können dann die umgangssprachlichen Schnittstellen zu Bots auf mobilen Geräten, Webanwendungen und Chat-Plattformen (z. B. Facebook Messenger) hinzufügen. Für die Nutzung von Amazon Lex fallen keine Vorabkosten oder Mindestgebühren an. Ihnen werden nur die Text- oder Sprachanforderungen in Rechnung gestellt, die gestellt werden. Die pay-as-you-go Preise und die geringen Kosten pro Anforderung machen den Service zu einer kostengünstigen Möglichkeit, Konversationsschnittstellen zu erstellen. Mit dem kostenlosen Kontingent für Amazon Lex können Sie Amazon Lex einfach ohne erste Investitionen ausprobieren.

Amazon Lookout für Equipment

Amazon Lookout for Equipment analysiert die Daten von den Sensoren an Ihren Geräten (z. B. Druck in einem Generator, Flowrate eines Kabels, Trichter pro Minute), um ein ML-Modell automatisch auf der Grundlage nur Ihrer Daten für Ihre Geräte zu trainieren – ohne dass ML-Erfahrung erforderlich ist. Lookout for Equipment verwendet Ihr eindeutiges ML-Modell, um eingehende Sensordaten in Echtzeit zu analysieren und vorzeitige Warnzeichen, die zu Maschinenausfällen führen könnten, genau zu identifizieren. Das bedeutet, dass Sie Geräteanomalien mit Geschwindigkeit und Präzision erkennen, Probleme schnell diagnostizieren, Maßnahmen ergreifen können, um teure Ausfallzeiten zu reduzieren und Fehlwarnungen zu reduzieren.

Amazon Lookout für Metrics

Amazon Lookout for Metrics verwendet ML, um Anomalien (Ausreißer aus der Norm) in Geschäfts- und Betriebsdaten automatisch zu erkennen und zu diagnostizieren, z. B. einen plötzlichen Rückgang des Umsatzes oder der Kundenakquiseraten. Mit wenigen Klicks können Sie Amazon Lookout for Metrics mit beliebten Datenspeichern wie Amazon S3, Amazon Redshift und Amazon Relational Database Service (Amazon RDS) sowie Software-as-a-Service (SaaS)-Anwendungen von Drittanbietern wie Salesforce, Servicenow, Zendesk und Marketo verbinden und mit der Überwachung von Metriken beginnen, die für Ihr Unternehmen wichtig sind. Amazon Lookout for Metrics überprüft und bereitet die Daten aus diesen Quellen automatisch vor, um Anomalien mit größerer Geschwindigkeit und Genauigkeit zu erkennen als herkömmliche Methoden zur Anomalieerkennung. Sie können auch Feedback zu erkannten Anomalien geben, um die Ergebnisse zu optimieren und die Genauigkeit im Laufe der Zeit zu verbessern. Amazon Lookout for Metrics erleichtert die Diagnose erkannter Anomalien, indem Anomalien gruppiert werden, die sich auf dasselbe Ereignis beziehen, und eine Warnung gesendet wird, die eine Zusammenfassung der potenziellen Ursache enthält. Außerdem werden Anomalien in der Reihenfolge ihres Schweregrads eingestuft, sodass Sie Ihre Aufmerksamkeit auf das richten können, was für Ihr Unternehmen am wichtigsten ist.

Amazon Lookout für Vision

Amazon Lookout for Vision ist ein ML-Service, der mithilfe von Computer Vision (CV) Fehler und Anomalien in visuellen Darstellungen entdeckt. Mit Amazon Lookout for Vision können Produktionsunternehmen die Qualität erhöhen und die Betriebskosten senken, indem sie schnell Unterschiede in Bildern von Objekten in großem Umfang identifizieren. Amazon Lookout for Vision kann beispielsweise verwendet werden, um fehlende Komponenten in Produkten, Beschädigung von Fahrzeugen oder Strukturen, Unregelmäßigkeiten in Produktionslinien, kleine Fehler in Silicon-Wafern und andere ähnliche Probleme zu identifizieren. Amazon Lookout for Vision verwendet ML, um Bilder von jeder Kamera wie eine Person zu sehen und zu verstehen, jedoch mit einem noch höheren Grad an Genauigkeit und in einem viel größeren Umfang. Amazon Lookout for Vision ermöglicht es Kunden, die Notwendigkeit einer kostspieligen und inkonsistenten manuellen Überprüfung zu vermeiden und gleichzeitig die Qualitätskontrolle, die Bewertung von Fehlern und Beschädigungen sowie die Compliance zu verbessern. In wenigen Minuten können Sie Amazon Lookout for Vision verwenden, um die Überprüfung von Bildern und Objekten zu automatisieren – ohne dass ML-Erfahrung erforderlich ist.

Amazon Monitron

Amazon Monitron ist ein end-to-end System, das ML verwendet, um ungewöhnliches Verhalten in Industriemaschinen zu erkennen, sodass Sie prädiktive Wartung implementieren und ungeplante Ausfallzeiten reduzieren können.

Die Installation von Sensoren und die erforderliche Infrastruktur für Datenkonnektivität, Speicherung, Analysen und Warnungen sind grundlegende Elemente für die Aktivierung der vorausschauenden Wartung. Damit es funktioniert, haben Unternehmen jedoch in der Vergangenheit qualifizierte Techniker und Datenwissenschaftler benötigt, um eine komplexe Lösung von Grund auf zusammenzustellen. Dazu gehörte die Identifizierung und Beschaffung der richtigen Sensoren für ihre Anwendungsfälle und deren Verbindung mit einem IoT-Gateway (einem Gerät, das Daten aggregiert und überträgt). Infolgedessen konnten nur wenige Unternehmen die prädiktive Wartung erfolgreich implementieren.

Amazon Monitron umfasst Sensoren zur Erfassung von Temperatur- und Temperaturdaten von Geräten, ein Gateway-Gerät zur sicheren Übertragung von Daten an AWS, den Amazon-Monitron-Service, der die Daten mithilfe von ML auf ungewöhnliche Maschinenmuster analysiert, und eine zugehörige mobile App, um die Geräte einzurichten und Berichte über Betriebsverhalten und Warnungen zu potenziellen Ausfällen in Ihren Geräten zu erhalten. Sie können in wenigen Minuten mit der Überwachung des Zustands von Geräten beginnen, ohne dass Entwicklungsarbeit oder ML-Erfahrung erforderlich ist, und die prädiktive Wartung mit derselben Technologie aktivieren, die zur Überwachung von Geräten in Amazon Fulfillment Centers verwendet wird.

Amazon PartyRock

Amazon PartyRock erleichtert das Erlernen generativer KI mit einem praktischen, Code-losen App Builder. Experimentieren Sie mit Prompt-Engineering-Techniken, überprüfen Sie generierte Antworten und entwickeln Sie Intuition für generative KI bei der Erstellung und Untersuchung von fun Apps. PartyRock bietet Zugriff auf Grundlagenmodelle (FMs) von Amazon und führenden KI-Unternehmen über Amazon Bedrock, einen vollständig verwalteten Service.

Amazon Personalize

Amazon Personalize ist ein ML-Service, der es Entwicklern erleichtert, mithilfe ihrer Anwendungen individuelle Empfehlungen für Kunden zu erstellen.

ML wird zunehmend verwendet, um die Kundenbindung zu verbessern, indem personalisierte Produkt- und Inhaltsempfehlungen, maßgeschneiderte Suchergebnisse und gezielte Marketingaktionen unterstützt werden. Die Entwicklung der ML-Funktionen, die für die Produktion dieser ausgefeilten Empfehlungssysteme erforderlich sind, ist jedoch aufgrund der Komplexität der Entwicklung von ML-Funktionen heute außerhalb des Bereichs der meisten Organisationen gegangen. Amazon Personalize ermöglicht es Entwicklern ohne vorherige ML-Erfahrung, ganz einfach ausgefeilte Personalisierungsfunktionen in ihre Anwendungen zu integrieren, indem ML-Technologie verwendet wird, die sich aus Jahren der Nutzung auf Amazon.com zusammensetzt.

Mit Amazon Personalize stellen Sie einen Aktivitätsstream aus Ihrer Anwendung bereit – Seitenaufrufe, Anmeldungen, Käufe usw. – sowie eine Bestandsliste der Artikel, die Sie empfehlen möchten, wie Artikel, Produkte, Videos oder Musik. Sie können Amazon Personalize auch zusätzliche demografische Informationen von Ihren Benutzern bereitstellen, z. B. Alter oder geografischer Standort. Amazon Personalize verarbeitet und untersucht die Daten, identifiziert, was aussagekräftig ist, wählt die richtigen Algorithmen aus und trainiert und optimiert ein für Ihre Daten angepasstes Personalisierungsmodell.

Amazon Personalize bietet optimierte Empfehlungen für den Einzelhandel und Medien sowie Arzt, die es schneller und einfacher machen, leistungsstarke personalisierte Benutzererlebnisse zu bieten. Amazon Personalize bietet auch eine intelligente Benutzersegmentierung, sodass Sie effektivere Suchkampagnen über Ihre Marketingkanäle ausführen können. Mit unseren beiden neuen Rezepten können Sie Ihre Benutzer basierend auf ihrem Interesse an verschiedenen Produktkategorien, Marken und mehr automatisch segmentieren.

Alle von Amazon Personalize analysierten Daten werden privat und sicher gehalten und nur für Ihre angepassten Empfehlungen verwendet. Sie können mit der Bereitstellung Ihrer personalisierten Vorhersagen über einen einfachen API-Aufruf innerhalb der Virtual Private Cloud beginnen, die der Service verwaltet. Sie zahlen nur für das, was Sie tatsächlich nutzen, und es fallen keine Mindestgebühren und keine Vorauszahlungen an.

Amazon Personalize ist wie Ihr eigenes Amazon.com ML-Personalisierungsteam 24 Stunden am Tag.

Amazon Polly

Amazon Polly ist ein Service, der Text in lebensechte Sprache umwandelt. Mit Amazon Polly können Sie Anwendungen erstellen, die sprechen, sodass Sie völlig neue Kategorien von sprachfähigen Produkten erstellen können. Amazon Polly ist ein Amazon-Service für künstliche Intelligenz (KI), der fortschrittliche Deep-Learning-Technologien verwendet, um Sprache zu synthetisieren, die wie eine menschliche Stimme aussieht. Amazon Polly bietet eine große Auswahl an lebensechten Stimmen, die auf Dutzende von Sprachen verteilt sind, sodass Sie die ideale sprachfähige Anwendung auswählen und sprachgesteuerte Anwendungen erstellen können, die in vielen verschiedenen Ländern funktionieren.

Amazon Polly liefert die konstant schnellen Reaktionszeiten, die zur Unterstützung interaktiver Echtzeitdialoge erforderlich sind. Sie können Amazon Polly-Sprachaudio zwischenspeichern und speichern, um die Wiedergabe offline zu wiederholen oder neu zu verteilen. Und Amazon Polly ist einfach zu bedienen. Sie senden einfach den Text, den Sie in Sprache umwandeln möchten, an die Amazon Polly-API, und Amazon Polly gibt den Audiostream sofort an Ihre Anwendung zurück, sodass Ihre Anwendung ihn direkt abspielen oder in einem Standard-Audiodateiformat wie MP3 speichern kann.

Zusätzlich zu Standard-TTS-Stimmen bietet Amazon Polly Neural Text-to-Speech (NTTS)-Stimmen, die durch einen neuen Machine-Learning-Ansatz fortschrittliche Verbesserungen der Sprachqualität bieten. Die Neural TTS-Technologie von Polly unterstützt auch einen Newscaster-Sprachstil, der auf Anwendungsfälle für Nachrichtenerzählungen zugeschnitten ist. Schließlich kann Amazon Polly Brand Voice eine benutzerdefinierte Stimme für Ihre Organisation erstellen. Dies ist ein benutzerdefiniertes Engagement, bei dem Sie mit dem Amazon Polly-Team zusammenarbeiten, um eine NTTS-Stimme für die ausschließliche Verwendung Ihrer Organisation zu entwickeln.

Mit Amazon Polly zahlen Sie nur für die Anzahl der Zeichen, die Sie in Sprache konvertieren, und Sie können von Amazon Polly generierte Sprache speichern und wiederholen. Die geringen Kosten für Amazon Polly pro konvertiertem Zeichen und das Fehlen von Einschränkungen bei der Speicherung und Wiederverwendung von Sprachausgaben machen es zu einer kostengünstigen Möglichkeit, Text-to-Speech überall zu aktivieren.

Amazon Rekognition

Amazon Rekognition erleichtert das Hinzufügen von Bild- und Videoanalysen zu Ihren Anwendungen mithilfe bewährter, hochgradig skalierbarer Deep-Learning-Technologie, für deren Verwendung kein ML-Fachwissen erforderlich ist. Mit Amazon Rekognition können Sie Objekte, Personen, Text, Szenen und Aktivitäten in Bildern und Videos identifizieren sowie unangemessene Inhalte erkennen. Amazon Rekognition bietet auch hochpräzise Funktionen zur Gesichtsanalyse und Gesichtssuche, mit denen Sie Gesichter für eine Vielzahl von Anwendungsfällen zur Benutzerverifizierung, Personenzählung und öffentlichen Sicherheit erkennen, analysieren und vergleichen können.

Mit Amazon Rekognition Custom Labels können Sie die Objekte und Szenen in Bildern identifizieren, die für Ihre Geschäftsanforderungen spezifisch sind. Sie können beispielsweise ein Modell erstellen, um bestimmte Maschinenteile auf Ihrer Assembly Line zu klassifizieren oder ungesunde Patienten zu erkennen. Amazon Rekognition Custom Labels kümmert sich für Sie um den hohen Aufwand bei der Modellentwicklung, sodass keine ML-Erfahrung erforderlich ist. Sie müssen einfach Bilder von Objekten oder Szenen bereitstellen, die Sie identifizieren möchten, und der Service erledigt den Rest.

Amazon SageMaker

Mit Amazon SageMaker können Sie ML-Modelle für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows erstellen, trainieren und bereitstellen. SageMaker entfernt den hohen Aufwand bei jedem Schritt des ML-Prozesses, um die Entwicklung hochwertiger Modelle zu vereinfachen. SageMaker stellt alle für ML verwendeten Komponenten in einem einzigen Toolset bereit, sodass Modelle mit viel weniger Aufwand und zu geringeren Kosten schneller in die Produktion gelangen.

Amazon SageMaker Autopilot

Amazon SageMaker Autopilot erstellt, trainiert und optimiert automatisch die besten ML-Modelle basierend auf Ihren Daten, während Sie die volle Kontrolle und Transparenz behalten können. Mit SageMaker Autopilot geben Sie einfach einen tabellarischen Datensatz an und wählen die vorherzusagende Zielspalte aus. Dabei kann es sich um eine Zahl (z. B. einen Hauspreis, als Regression bezeichnet) oder um eine Kategorie (z. B. Spam/kein Spam, als Klassifizierung bezeichnet) handeln. SageMaker Autopilot erforscht automatisch verschiedene Lösungen, um das beste Modell zu finden. Anschließend können Sie das Modell mit nur einem Klick direkt in der Produktion bereitstellen oder die empfohlenen Lösungen mit Amazon SageMaker Studio iterieren, um die Modellqualität weiter zu verbessern.

Amazon SageMaker Canvas

Amazon SageMaker Canvas erweitert den Zugriff auf ML, indem es Geschäftsanalysten eine visuelle point-and-click Oberfläche bietet, mit der sie selbst genaue ML-Vorhersagen generieren können – ohne dass ML-Erfahrung erforderlich ist oder eine einzige Codezeile schreiben muss.

Amazon SageMaker Clarify

Amazon SageMaker Clarify bietet Entwicklern für Machine Learning einen besseren Einblick in ihre Trainingsdaten und Modelle, sodass sie Verzerrungen identifizieren und einschränken und Vorhersagen erklären können. Amazon SageMaker Clarify erkennt potenzielle Verzerrungen während der Datenvorbereitung, nach dem Modelltraining und in Ihrem bereitgestellten Modell, indem es die von Ihnen angegebenen Attribute untersucht. SageMaker Clarify enthält auch Diagramme zur Feature-Bedeutung, die Ihnen helfen, Modellvorhersagen zu erklären und Berichte zu erstellen, die verwendet werden können, um interne Unterhaltungen zu unterstützen oder Probleme mit Ihrem Modell zu identifizieren, die Sie korrigieren können.

Amazon SageMaker Data Labeling

Amazon SageMaker bietet Angebote zur Datenbeschriftung, um Rohdaten wie Bilder, Textdateien und Videos zu identifizieren und informative Labels hinzuzufügen, um qualitativ hochwertige Trainingsdatensätze für Ihre ML-Modelle zu erstellen.

Amazon SageMaker Data Wrangler

Amazon SageMaker Data Wrangler reduziert die Zeit, die benötigt wird, um Daten für ML von Wochen auf Minuten zu aggregieren und vorzubereiten. Mit SageMaker Data Wrangler können Sie den Prozess der Datenvorbereitung und des Feature-Engineerings vereinfachen und jeden Schritt des Datenvorbereitungs-Workflows abschließen, einschließlich Datenauswahl, Bereinigung, Erkundung und Visualisierung von einer einzigen visuellen Oberfläche aus.

Amazon SageMaker Edge

Amazon SageMaker Edge ermöglicht Machine Learning auf Edge-Geräten durch Optimierung von Sichern, und Bereitstellen von Modellen am Edge, und dann die Überwachung dieser Modelle auf Ihrer Geräteflotte, wie Smart-Kameras, Roboter, und andere intelligente Verbindungen, , um die laufenden Betriebskosten zu senken. SageMaker Edge Compiler optimiert das trainierte Modell so, dass es auf einem Edge-Gerät ausführbar ist. SageMaker Edge umfasst einen over-the-air (OTA)-Bereitstellungsmechanismus, mit dem Sie Modelle unabhängig von der Anwendung oder Gerätefirmware auf der Flotte bereitstellen können. SageMaker Mit dem Edge Agent können Sie mehrere Modelle auf demselben Gerät ausführen. Der Agent sammelt Prognosedaten basierend auf der von Ihnen kontrollierten Logik, z. B. Intervalle, und lädt sie in die Cloud hoch, sodass Sie Ihre Modelle im Laufe der Zeit regelmäßig neu trainieren können.

Amazon SageMaker Feature Store

Amazon SageMaker Feature Store ist ein speziell entwickeltes Repository, in dem Sie Funktionen speichern und darauf zugreifen können, sodass es viel einfacher zu benennen ist. organisieren, und verwenden Sie sie teamübergreifend wieder. SageMaker Feature Store bietet einen einheitlichen Speicher für Features während des Trainings und der Echtzeit-Inferenz, ohne zusätzlichen Code schreiben oder manuelle Prozesse erstellen zu müssen, um die Features konsistent zu halten. SageMaker Feature Store verfolgt die Metadaten gespeicherter Features (z. B. Feature-Name oder Versionsnummer), sodass Sie die Features mit Amazon Athena nach den richtigen Attributen in Batches oder in Echtzeit abfragen können. einen interaktiven Abfrageservice. SageMaker Feature Store hält auch die Funktionen auf dem neuesten Stand. denn da während der Inferenz neue Daten generiert werden, Das einzelne Repository wurde aktualisiert, sodass Modelle während des Trainings und der Inferenz immer neue Funktionen verwenden können.

SageMaker Geodatenfunktionen von Amazon

SageMaker Die Geodatenfunktionen von Amazon erleichtern es Datenwissenschaftlern und Machine Learning (ML)-Ingenieuren, ML-Modelle mithilfe von Geodaten schneller zu erstellen, zu trainieren und bereitzustellen. Sie haben Zugriff auf Daten (Open-Source und Drittanbieter), Verarbeitungs- und Visualisierungstools, um die Vorbereitung von Geodaten für ML effizienter zu gestalten. Sie können Ihre Produktivität steigern, indem Sie speziell entwickelte Algorithmen und vortrainierte ML-Modelle verwenden, um die Modellbildung und die Schulung zu beschleunigen, und integrierte Visualisierungstools verwenden, um die Prognoseergebnisse auf einer interaktiven Karte zu untersuchen und dann teamübergreifend an Erkenntnissen und Ergebnissen zu arbeiten.

Amazon SageMaker HyperPod

Amazon SageMaker HyperPod entfernt die undifferenzierte, hochrangige Arbeit, die mit dem Aufbau und der Optimierung der Machine Learning (ML)-Infrastruktur für große Sprachmodelle (LLMs), Telefoniemodelle und Grundlagenmodelle (FMs) verbunden ist. SageMaker HyperPod ist mit verteilten Trainingsbibliotheken vorkonfiguriert, mit denen Kunden Trainings-Workloads automatisch auf Tausende von Beschleunigern aufteilen können, z. B. AWS Trainium, und NVIDIA A100 und H100 Graphical Processing Units (GPUs).

SageMaker HyperPod trägt auch dazu bei, dass Sie das Training unterbrechungsfrei fortsetzen können, indem Sie regelmäßig Checkpoints speichern. Wenn ein Hardwareausfall auftritt, erkennen selbstverarbeitende Cluster den Fehler automatisch, reparieren oder ersetzen die fehlerhafte Instance und setzen das Training ab dem letzten gespeicherten Checkpoint fort, sodass Sie diesen Prozess nicht manuell verwalten müssen und Sie Wochen oder Monate lang in einer verteilten Umgebung ohne Unterbrechung trainieren können. Sie können Ihre Computing-Umgebung an Ihre Bedürfnisse anpassen und sie mit den von Amazon SageMaker verteilten Trainingsbibliotheken konfigurieren, um eine optimale Leistung auf zu erzielen AWS.

Amazon SageMaker JumpStart

Amazon SageMaker JumpStart hilft Ihnen, schnell und einfach mit ML zu beginnen. Um den Einstieg zu erleichtern, SageMaker JumpStart bietet eine Reihe von Lösungen für die häufigsten Anwendungsfälle, die mit nur wenigen Klicks leicht bereitgestellt werden können. Die Lösungen sind vollständig anpassbar und zeigen die Verwendung von AWS CloudFormation Vorlagen und Referenzarchitekturen, sodass Sie Ihre ML-Erfahrung beschleunigen können. Amazon unterstützt SageMaker JumpStart auch die Ein-Klick-Bereitstellung und Feinabstimmung von mehr als 150 beliebten Open-Source-Modellen wie natürliche Sprachverarbeitung, Objekterkennung und Bildklassifizierungsmodellen.

Amazon SageMaker Model Building

Amazon SageMaker bietet alle Tools und Bibliotheken, die Sie zum Erstellen von ML-Modellen benötigen, den Prozess des iterativen Ausprobierens verschiedener Algorithmen und deren Genauigkeit, um den besten für Ihren Anwendungsfall zu finden. In Amazon können SageMaker Sie verschiedene Algorithmen auswählen, darunter mehr als 15, die integriert und für optimiert sind SageMaker, und mehr als 750 vorgefertigte Modelle aus beliebten Modellzoos verwenden, die mit wenigen Klicks verfügbar sind. bietet SageMaker auch eine Vielzahl von Tools zur Modellerstellung, darunter Amazon SageMaker Studio Notebooks JupyterLab, RStudio und Code Editor, die auf Code-OSS (Virtual Studio Code Open Source) basieren, wo Sie ML-Modelle klein ausführen können, um Ergebnisse anzuzeigen und Berichte über ihre Leistung anzuzeigen, sodass Sie qualitativ hochwertige funktionierende Prototypen finden können.

Amazon- SageMaker Modelltraining

Amazon SageMaker reduziert den Zeit- und Kostenaufwand für das Training und Optimieren von ML-Modellen in großem Umfang, ohne dass die Infrastruktur verwaltet werden muss. Sie können die derzeit verfügbare leistungsstärkste ML-Recheninfrastruktur nutzen und SageMaker die Infrastruktur automatisch von einer auf Tausende von GPUs hoch- oder herunterskalieren. Da Sie nur für das zahlen, was Sie tatsächlich nutzen, können Sie Ihre Trainingskosten effektiver verwalten. Um Deep-Learning-Modelle schneller zu trainieren, können Sie die von Amazon SageMaker verteilten Trainingsbibliotheken für eine bessere Leistung verwenden oder Bibliotheken von Drittanbietern wie DeepSpeed, Horovod oder Mega verwenden.

Amazon- SageMaker Modellbereitstellung

Amazon SageMaker erleichtert die Bereitstellung von ML-Modellen, um Vorhersagen (auch als Inferenz bezeichnet) zum besten Preis-Leistungs-Verhältnis für jeden Anwendungsfall zu treffen. Es bietet eine breite Auswahl an Optionen für die ML-Infrastruktur und Modellbereitstellung, um all Ihre ML-Inferenzanforderungen zu erfüllen. Es handelt sich um einen vollständig verwalteten Service, in den die MLOps-Tools integriert werden können, so dass Sie den Einsatz Ihrer Modelle skalieren, die Inference-Kosten senken, Modelle in der Produktion effektiver einsetzen und den betrieblichen Aufwand reduzieren können.

Amazon SageMaker Pipelines

Amazon SageMaker Pipelines ist der erste speziell entwickelte Service für easy-to-use kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) für ML. Mit SageMaker Pipelines können Sie end-to-end ML-Workflows in großem Umfang erstellen, automatisieren und verwalten.

Amazon SageMaker Studio Lab

Amazon SageMaker Studio Lab ist eine kostenlose ML-Entwicklungsumgebung, die Rechenleistung, Speicher (bis zu 15GB) und Sicherheit – alles ohne Kosten – bereitstellt, damit jemand lernen und mit ML experimentieren kann. Sie müssen lediglich eine gültige E-Mail-Adresse verwenden. Sie müssen keine Infrastruktur konfigurieren, Identität und Zugriff verwalten oder sich sogar für ein - AWS Konto registrieren. SageMaker Studio Lab beschleunigt die Modellerstellung durch GitHub Integration und ist mit den beliebtesten ML-Tools, -Frameworks und -Bibliotheken vorkonfiguriert, damit Sie sofort loslegen können. SageMaker Studio Lab speichert Ihre Arbeit automatisch, sodass Sie zwischen den Sitzungen nicht neu starten müssen. Es ist so einfach, Ihren Laptop zu schließen und später wieder zurückzukommen.

Apache MXNet auf AWS

Apache MXNet ist ein schnelles und skalierbares Trainings- und Inferenz-Framework mit einer easy-to-usepräzisen -API für ML . MXNet enthält die Gluon-Schnittstelle, mit der Entwickler aller Fähigkeiten mit Deep Learning in der Cloud, auf Edge-Geräten und mobilen Apps beginnen können. In nur wenigen Zeilen von Gluon-Code können Sie lineare Regression, konvolutionale Netzwerke und wiederkehrende LSTMs für die Objekterkennung, Spracherkennung, Empfehlung und Personalisierung erstellen. Sie können mit MxNet in AWS mit einer vollständig verwalteten Erfahrung beginnen, indem Sie Amazon SageMaker verwenden, eine Plattform zum Erstellen, Trainieren und Bereitstellen von ML-Modellen in großem Umfang. Oder Sie können die verwenden, AWS Deep Learning AMI um benutzerdefinierte Umgebungen und Workflows mit MxNet sowie anderen Frameworks wie TensorFlow, PyTorch, Chainer, Keras, C, Caffe2 und Microsoft Cognitive Toolkit zu erstellen.

AWS Deep Learning AMI s

Die AWS Deep Learning AMI bieten ML-Experten und -Forschern die Infrastruktur und Tools zur Beschleunigung des Deep Learning in der Cloud in jeder Größenordnung. Sie können Amazon EC2-Instances, die mit gängigen Deep-Learning-Frameworks und Schnittstellen wie TensorFlow, PyTorch, Apache MXNet , Chainer, Gluon, Horovod und Keras vorinstalliert sind, schnell starten, um ausgeklügelte, benutzerdefinierte KI-Modelle zu trainieren, mit neuen Algorithmen zu experimentieren oder neue Fähigkeiten und Techniken zu erlernen. Unabhängig davon, ob Sie Amazon EC2-GPU- oder CPU-Instances benötigen, fallen für die Deep-Learning-AMIs keine zusätzlichen Gebühren an. Sie zahlen nur für die AWS Ressourcen, die zum Speichern und Ausführen Ihrer Anwendungen erforderlich sind.

AWS Deep Learning Container

AWS Deep Learning Containers (AWS DL-Container) sind Docker-Images, die mit Deep Learning-Frameworks vorinstalliert sind, um die schnelle Bereitstellung benutzerdefinierter Machine Learning (ML)-Umgebungen zu vereinfachen, indem Sie den komplizierten Prozess der Erstellung und Optimierung Ihrer Umgebungen von Grund auf überspringen können. AWS DL-Container unterstützen TensorFlow, PyTorch, Apache MXNet . Sie können AWS DL-Container auf Amazon SageMaker, Amazon Elastic Kubernetes Service (Amazon EKS), selbstverwalteten Kubernetes auf Amazon EC2, Amazon Elastic Container Service (Amazon ECS) bereitstellen. Die Container sind über Amazon Elastic Container Registry (Amazon ECR) verfügbar und AWS Marketplace kostenlos. Sie zahlen nur für die Ressourcen, die Sie nutzen.

Geospatial ML mit Amazon SageMaker

SageMaker Die Geodatenfunktionen von Amazon ermöglichen es Datenwissenschaftlern und ML-Ingenieuren, ML-Modelle mithilfe von Geodaten schneller und skalierbar zu erstellen, zu trainieren und bereitzustellen. Sie können auf leicht verfügbare Geodatenquellen zugreifen, große Geodatensätze effizient mit speziell entwickelten Operationen transformieren oder anreichern und die Modellerstellung beschleunigen, indem Sie vortrainierte ML-Modelle auswählen. Sie können auch Geodaten analysieren und Modellvorhersagen auf einer interaktiven Karte mithilfe von 3D-beschleunigten Grafiken mit integrierten Visualisierungstools untersuchen. SageMaker Geodatenfunktionen zur Laufzeit können für eine Vielzahl von Anwendungsfällen verwendet werden, z. B. für die Maximierung der Gewinn- und Lebensmittelsicherheit, die Bewertung von Risiko- und Versicherungsansprüchen, die Unterstützung der nachhaltige Entwicklung und die Prognose der Nutzung von Einzelhandelsstandorten.

Hugging Face auf AWS

Mit Hugging Face auf Amazon SageMaker können Sie vortrainierte Modelle von Hugging Face, einem Open-Source-Anbieter natürlicher Sprachverarbeitungsmodelle (NLP), bereitstellen und optimieren, die als Transformer bezeichnet werden, wodurch die Zeit für die Einrichtung und Verwendung dieser NLP-Modelle von Wochen auf Minuten reduziert wird. NLP bezieht sich auf ML-Algorithmen, die Computern helfen, die menschliche Sprache zu verstehen. Sie helfen bei Übersetzung, intelligenter Suche, Textanalyse und mehr. NLP-Modelle können jedoch groß und komplex sein (manchmal bestehend aus Hunderten von Millionen von Modellparametern), und das Training und ihre Optimierung erfordert Zeit, Ressourcen und Fähigkeiten. AWS hat mit Hugging Face zusammengearbeitet, um Hugging Face AWS Deep Learning Containers (DLCs) zu erstellen, die Datenwissenschaftlern und ML-Entwicklern eine vollständig verwaltete Erfahrung für die Erstellung, Schulung und Bereitstellung von state-of-the-art NLP-Modellen auf Amazon bieten SageMaker.

PyTorch auf AWS

PyTorch ist ein Open-Source-Deep-Learning-Framework, das die Entwicklung von Machine-Learning-Modellen und deren Bereitstellung in der Produktion vereinfacht. Mithilfe der PyTorchModellbereitstellungsbibliothek von TorchServe, die von AWS in Zusammenarbeit mit Facebook erstellt und verwaltet wird, können PyTorch Entwickler Modelle schnell und einfach in der Produktion bereitstellen. bietet PyTorch auch dynamische Rechendiagramme und Bibliotheken für verteiltes Training, die auf hohe Leistung in abgestimmt sind AWS. Sie können mit PyTorch der AWS Verwendung von Amazon SageMaker beginnen, einem vollständig verwalteten ML-Service, der das Erstellen, Trainieren und Bereitstellen PyTorch von Modellen in großem Umfang einfach und kostengünstig macht. Wenn Sie die Infrastruktur lieber selbst verwalten möchten, können Sie die AWS Deep Learning AMI oder die AWS Deep Learning Containers verwenden, die aus der Quelle stammen und für die Leistung mit der neuesten Version von optimiert sind, PyTorch um benutzerdefinierte Machine Learning-Umgebungen schnell bereitzustellen.

TensorFlow auf AWS

TensorFlow ist eines von vielen Deep-Learning-Frameworks, die für Forscher und Entwickler verfügbar sind, um ihre Anwendungen mit Machine Learning zu verbessern. AWS bietet umfassende Unterstützung für TensorFlow, sodass Kunden ihre eigenen Modelle in den Bereichen Computer Vision, natürliche Sprachverarbeitung, Sprachübersetzung und mehr entwickeln und bereitstellen können. Sie können mit TensorFlow der AWS Verwendung von Amazon SageMaker beginnen, einem vollständig verwalteten ML-Service, der das Erstellen, Trainieren und Bereitstellen von TensorFlow Modellen in großem Umfang einfach und kostengünstig macht. Wenn Sie die Infrastruktur lieber selbst verwalten möchten, können Sie die AWS Deep Learning AMI oder die AWS Deep Learning Containers verwenden, die aus der Quelle stammen und für die Leistung mit der neuesten Version von optimiert sind, TensorFlow um benutzerdefinierte ML-Umgebungen schnell bereitzustellen.

Amazon Textract

Amazon Textract ist ein Service, der automatisch Text und Daten aus gescannten Dokumenten extrahiert. Amazon Textract geht über einfaches OCR (Optical Character Recognition) hinaus und ermittelt auch den Inhalt von Feldern in Formularen und Informationen, die in Tabellen gespeichert sind.

Heute extrahieren viele Unternehmen Daten manuell aus gescannten Dokumenten wie PDFs, Bildern, Tabellen und Formularen oder über einfache OCR-Software, die eine manuelle Konfiguration erfordert (die häufig aktualisiert werden muss, wenn sich das Formular ändert). Um diese manuellen und teuren Prozesse zu bewältigen, verwendet Amazon Textract ML, um jede Art von Dokument zu lesen und zu verarbeiten und dabei Text, Handschrift, Tabellen und andere Daten ohne manuellen Aufwand genau zu extrahieren. Amazon Textract bietet Ihnen die Flexibilität, die Daten anzugeben, die Sie mithilfe von Abfragen aus Dokumenten extrahieren müssen. Sie können die benötigten Informationen in Form von Fragen in natürlicher Sprache angeben (z. B. „Was ist der Kundename“ Sie müssen die Datenstruktur im Dokument (Tabelle, Formular, impliziertes Feld, verschachtelte Daten) nicht kennen oder sich über Variationen zwischen Dokumentversionen und Formaten Gedanken machen. Amazon-Textract-Abfragen werden anhand einer Vielzahl von Dokumenten vortrainiert, darunter Zahlungsabwicklungen, Bankauszüge, W-2s, Kreditantragsformulare, Sicherungsscheine, Antragsdokumente und Versicherungskarten.

Mit Amazon Textract können Sie die Dokumentenverarbeitung schnell automatisieren und auf die extrahierten Informationen reagieren, unabhängig davon, ob Sie die Kreditverarbeitung automatisieren oder Informationen aus Rechnungen und Belegen extrahieren. Amazon Textract kann die Daten in Minuten statt in Stunden oder Tagen extrahieren. Darüber hinaus können Sie mit Amazon Augmented AI menschliche Überprüfungen hinzufügen, um Ihre Modelle zu überwachen und sensible Daten zu überprüfen.

Amazon Transcribe

Amazon Transcribe ist ein Service zur automatischen Spracherkennung (ASR), der es Kunden erleichtert, Sprache automatisch in Text umzuwandeln. Der Service kann Audiodateien transkribieren, die in gängigen Formaten wie WAV und MP3 gespeichert sind, mit Zeitstempeln für jedes Wort, sodass Sie das Audio einfach in der ursprünglichen Quelle finden können, indem Sie nach dem Text suchen. Sie können auch einen Live-Audiostream an Amazon Transcribe senden und einen Stream von Transkripten in Echtzeit empfangen. Amazon Transcribe wurde entwickelt, um eine Vielzahl von Sprach- und Sprechmerkmalen zu bewältigen, einschließlich Variationen in Bezug auf Volumen, Tonhöhe und Sprechrate. Die Qualität und der Inhalt des Audiosignals (einschließlich, aber nicht beschränkt auf Faktoren wie Hintergrundrauschen, überlappende Sprecher, akzentuierte Sprache oder Wechseln zwischen Sprachen innerhalb einer einzelnen Audiodatei) können sich auf die Genauigkeit der Serviceausgabe auswirken. Kunden können Amazon Transcribe für eine Vielzahl von Geschäftsanwendungen verwenden, darunter die Transkription von sprachbasierten Kundendienstanrufen, die Generierung von Untertiteln zu Audio-/Videoinhalten und die Durchführung (textbasierter) Inhaltsanalysen zu Audio-/Videoinhalten.

Zwei sehr wichtige Services, die von Amazon Transcribe abgeleitet werden, sind Amazon Transcribe Medical und Amazon Transcribe Call Analytics.

Amazon Transcribe Medical verwendet erweiterte ML-Modelle, um medizinische Sprache genau in Text zu transkribieren. Amazon Transcribe Medical kann Texttranskripte generieren, die verwendet werden können, um eine Vielzahl von Anwendungsfällen zu unterstützen, darunter den Workflow für medizinische Dokumentationen und die Überwachung der Sicherheit von Patienten (Plaze) bis hin zur Benennung von TeleMedikin- und sogar Kontaktcenter-Analysen in den Bereichen Gesundheitswesen und Biowissenschaften.

Amazon Transcribe Call Analytics ist eine KI-gestützte API, die umfassende Anruftranskripte und umsetzbare Konversationseinblicke bietet, die Sie ihren Anrufanwendungen hinzufügen können, um das Kundenerlebnis und die Produktivität der Kundendienstmitarbeiter zu verbessern. Es kombiniert leistungsstarke speech-to-text und benutzerdefinierte NLP-Modelle (Natural Language Processing), die speziell trainiert wurden, um den Kundenservice und ausgehende Verkaufsanrufe zu verstehen. Als Teil von AWS Contact Center Intelligence (CCI)-Lösungen ist diese API Contact Center-unabhängig und erleichtert Kunden und ISVs das Hinzufügen von Anrufanalysefunktionen zu ihren Anwendungen.

Der einfachste Weg, um mit Amazon Transcribe zu beginnen, besteht darin, einen Auftrag über die Konsole zu senden, um eine Audiodatei zu transkribieren. Sie können den Service auch direkt über die aufrufen oder eines der unterstützten SDKs Ihrer Wahl verwenden AWS Command Line Interface, um in Ihre Anwendungen zu integrieren.

Amazon Translate

Amazon Translate ist ein Service zur neuronalen maschinellen Übersetzung, der eine schnelle, qualitativ hochwertige und kostengünstige Übersetzung bietet. Neural Machine Translation ist eine Form der Sprachübersetzungsautomatisierung, die Deep-Learning-Modelle verwendet, um eine genauere und natürlicher erklärbare Übersetzung zu bieten als herkömmliche statistische und regelbasierte Übersetzungsalgorithmen. Mit Amazon Translate können Sie Inhalte wie Websites und Anwendungen für Ihre verschiedenen Benutzer lokalisieren, große Textmengen einfach zur Analyse übersetzen und die sprachübergreifende Kommunikation zwischen Benutzern effizient ermöglichen.

AWS DeepComposer

AWS DeepComposer ist die erste Musiktastatur der Welt, die von ML unterstützt wird, damit Entwickler aller Fähigkeiten Generative KI lernen können, während Original- Musikausgaben erstellt werden. DeepComposer besteht aus einer USB-Tastatur, die eine Verbindung zum Computer des Entwicklers herstellt, und dem - DeepComposer Service, auf den über die zugegriffen wird AWS Management Console. DeepComposer enthält Tutorials, Beispielcode und Trainingsdaten, mit denen Sie mit der Erstellung generativer Modelle beginnen können.

AWS DeepLens

AWS DeepLens hilft Entwicklern dabei, Deep Learning mit einer voll programmierbaren Videokamera, Tutorials, Code und vortrainierten Modellen zur Erweiterung von Deep-Learning-Fähigkeiten in die Hand zu legen.

AWS DeepRacer

AWS DeepRacer ist ein 1/18-Wettbewerb, das Ihnen eine interessante und spaßige Möglichkeit bietet, mit Reinforcement Learning (RL) zu beginnen. RL ist eine erweiterte ML-Technik, die einen sehr anderen Ansatz für Trainingsmodelle als andere ML-Methoden verwendet. Ihre Superkraft besteht darin, dass sie sehr komplexe Verhaltensweisen erlernt, ohne dass beschriftete Trainingsdaten erforderlich sind, und kurzfristige Entscheidungen treffen und gleichzeitig ein langfristiges Ziel optimieren kann.

Mit haben Sie jetzt die Möglichkeit AWS DeepRacer, mit RL praktische Übungen durchzuführen, zu experimentieren und durch autonomes Fahren zu lernen. Sie können mit dem virtuellen Auto und den Spuren im cloudbasierten 3D-Automobilsimulator beginnen. Für ein reales Erlebnis können Sie Ihre trainierten Modelle auf einsetzen AWS DeepRacer und Ihre Freunde rennen oder an der globalen AWS DeepRacer Bol teilnehmen. Entwickler, das Race ist im Gange.

AWS HealthLake

AWS HealthLake ist ein HIPAA-berechtigter Service, mit dem Gesundheitsanbieter, Krankenversicherungsunternehmen und medizinische Unternehmen umfangreiche Gesundheitsdaten speichern, transformieren, abfragen und analysieren können.

Zustandsdaten sind häufig unvollständig und inkonsistent. Es ist auch oft unstrukturiert, wobei Informationen in Patientenhinweisen, Laborberichten, Versicherungsansprüchen, medizinischen Bildern, aufgezeichneten Konversationen und Zeitreihendaten enthalten sind (z. B. Heart microSD oder brainSpeed traces).

Netzanbieter können verwenden, HealthLake um Daten in der zu speichern, zu transformieren, abzufragen und zu analysieren AWS Cloud. Mithilfe der HealthLake integrierten Funktionen zur Verarbeitung natürlicher Sprache (NLP) können Sie unstrukturierten klinischen Text aus verschiedenen Quellen analysieren. HealthLake transformiert unstrukturierte Daten mithilfe natürlicher Sprachverarbeitungsmodelle und bietet leistungsstarke Abfrage- und Suchfunktionen. Sie können verwenden, HealthLake um Patienteninformationen sicher, konform und überprüfbar zu organisieren, zu indizieren und zu strukturieren.

AWS HealthScribe

AWS HealthScribe ist ein HIPAA-berechtigter Service, der es Anbietern von Gesundheitssoftware ermöglicht, automatisch Patientennotizen zu generieren, indem sie Gespräche zwischen Patienten und Patienten analysieren. AWS HealthScribe kombiniert Spracherkennung mit generativer KI, um den Aufwand an Patientendokumentation zu reduzieren, indem es Gespräche transkribiert und schnell Patientennotizen erstellt. Die Gespräche sind segmentiert, um die Sprecherrollen für Patienten und Patienten zu identifizieren, medizinische Begriffe zu extrahieren und vorläufige medizinische Notizen zu erstellen. Um sensible Patientendaten zu schützen, sind Sicherheit und Datenschutz integriert, um sicherzustellen, dass das Eingangsaudio und der Ausgabetext nicht in aufbewahrt werden AWS HealthScribe.

AWS Panorama

AWS Panorama ist eine Sammlung von ML-Geräten und Software Development Kit (SDK), die Computer Vision (CV) zu On-Premises-Kameras des Internetprotokolls (IP) bringen. Mit können Sie Aufgaben automatisieren AWS Panorama, für die traditionell eine menschliche Überprüfung erforderlich war, um die Sichtbarkeit potenzieller Probleme zu verbessern.

Computer Vision kann die visuelle Überprüfung für Aufgaben automatisieren, wie z. B. die Verfolgung von Komponenten zur Optimierung des Lieferkettenbetriebs, die Überwachung von Verkehrspfaden zur Optimierung des Datenverkehrsmanagements oder die Erkennung von Anomalien zur Bewertung der Herstellungsqualität. In Umgebungen mit begrenzter Netzwerkbandbreite oder für Unternehmen mit Daten-Governance-Regeln, die eine On-Premises-Verarbeitung und Speicherung von Videos erfordern, kann es schwierig oder unmöglich sein, Computer Vision in der Cloud zu implementieren. AWS Panorama ist ein ML-Service, mit dem Unternehmen Computer Vision On-Premises-Kameras zur lokalen Vorhersage mit hoher Genauigkeit und niedriger Latenz verwenden können.

Die AWS Panorama Appliance ist ein Hardwaregerät, das Ihren vorhandenen IP-Kameras Computer Vision hinzufügt und die Videofeeds mehrerer Kameras von einer einzigen Verwaltungsschnittstelle aus analysiert. Es generiert Vorhersagen am Edge in Millisekunden, was bedeutet, dass Sie über potenzielle Probleme benachrichtigt werden können, z. B. wenn beschädigte Produkte in einer sich schnell bewegenden Produktionslinie erkannt werden oder wenn ein Fahrzeug in eine Zone mit gefährlichen Grenzwerten in einem Lager eingewandert ist. Und Drittanbieter erstellen neue AWS Panorama-fähige Kameras und Geräte, um noch mehr Formfaktoren für Ihre individuellen Anwendungsfälle bereitzustellen. Mit können AWS Panorama Sie ML-Modelle von verwenden, AWS um Ihre eigenen Computer-Vision-Anwendungen zu erstellen, oder mit einem Partner von zusammenarbeiten, AWS Partner Network um CV-Anwendungen schnell zu erstellen.