AWS Fault Injection Service führt zwei häufig geforderte Szenarien ein

Heute kündigt AWS Fault Injection Service (FIS) die Verfügbarkeit von zwei neuen Szenarien an: „AZ Availability: Power Interruption“ und „Cross-Region: Connectivity“. Mit dem Szenario „AZ Availability: Power Interruption“ können Sie bestimmen, wie eine Multi-AZ-Anwendung funktioniert, wenn die erwarteten Symptome einer vollständigen Stromunterbrechung in einer einzelnen AZ auftreten. Mit dem Szenario „Cross-Region: Connectivity“ können Sie feststellen, dass eine Anwendung mit mehreren Regionen erwartungsgemäß funktioniert, wenn die Anwendung nicht auf Ressourcen in einer anderen Region zugreifen kann. 
Quelle: aws.amazon.com

Einführung einer Erweiterung für eine integrierte Entwicklungsumgebung (IDE) für AWS Application Composer

Heute führt Amazon Web Services, Inc. die allgemeine Verfügbarkeit von Application Composer in VS Code ein, der als Teil des AWS-Toolkits verfügbar ist. Sie können die Drag-and-Drop-Oberfläche von AWS Application Composer verwenden, um ein Anwendungsdesign von Grund auf neu zu erstellen oder eine vorhandene Anwendungsdefinition zu importieren, um sie zu bearbeiten. 
Quelle: aws.amazon.com

Amazon Redshift Serverless: Ankündigung verbesserter Funktionen für Verwaltbarkeit und Benutzerfreundlichkeit

Heute kündigt Amazon Redshift eine verbesserte Verwaltbarkeit und Überwachung für Funktionen für Amazon Redshift Serverless an, darunter kontoübergreifende Cross-VPC, benutzerdefinierte Domainnamen (CNAME), Snapshot-Planung, regionsübergreifendes Kopieren (CRC), verbesserte Sichtbarkeit für die Serverless-Abrechnung in der Redshift-Konsole und Versionsverfolgung. Diese Funktionen bieten Ihnen einen nahtlosen Datenzugriff, zuverlässigen Datenschutz und einen kostengünstigen Betrieb.
Quelle: aws.amazon.com

Amazon SageMaker führt neue Inferenzfunktionen ein, um Kosten und Latenz zu reduzieren

Wir freuen uns, Ihnen neue Funktionen in Amazon SageMaker vorstellen zu können, mit denen Kunden die Kosten für die Modellbereitstellung im Durchschnitt um 50% und die Inferenzlatenz im Durchschnitt um 20% senken können. Kunden können mehrere Modelle auf derselben Instance bereitstellen, um die zugrunde liegenden Beschleuniger besser nutzen zu können. SageMaker überwacht aktiv Instances, die Inferenzanfragen verarbeiten, und leitet Anfragen intelligent weiter, je nachdem, welche Instanzen verfügbar sind.
Quelle: aws.amazon.com

Vektor-Engine für Amazon OpenSearch Serverless jetzt allgemein verfügbar

Heute kündigt AWS die allgemeine Verfügbarkeit der Vektor-Engine für Amazon OpenSearch Serverless an. Die Vector Engine für OpenSearch Serverless ist eine einfache, skalierbare und leistungsstarke Vektordatenbank, die es Entwicklern erleichtert, Machine Learning (ML) – erweiterte Sucherlebnisse und Anwendungen für generative künstliche Intelligenz (KI) – zu erstellen, ohne die zugrundeliegende Vektordatenbank-Infrastruktur verwalten zu müssen. Entwickler können sich auf die kosteneffiziente, sichere und ausgereifte Serverless-Plattform der Vector Engine verlassen, um nahtlos vom Anwendungsprototyping zur Produktion überzugehen. 
Quelle: aws.amazon.com

AWS kündigt die Null-ETL-Integration von Amazon Aurora PostgreSQL in Amazon Redshift an (öffentliche Vorversion)

Die Null-ETL-Integration von Amazon Aurora in Amazon Redshift ermöglicht Analysen und Machine Learning (ML) nahezu in Echtzeit; hierbei wird Amazon Redshift für Petabyte von Transaktionsdaten aus Aurora verwendet. Datenbankcluster der mit Amazon Aurora PostgreSQL kompatiblen Edition können jetzt (in der öffentlichen Vorversion) als Quelle für Null-ETL-Integrationen verwendet werden. Innerhalb von Sekunden, nachdem die Transaktionsdaten in Aurora geschrieben wurden, sind die Daten in Amazon Redshift verfügbar. Sie müssen keine komplexen Datenpipelines erstellen und verwalten, um ETL (Extract, Transform, Load)-Vorgänge durchzuführen.
Quelle: aws.amazon.com

AWS kündigt Vektorsuche für Amazon MemoryDB für Redis an (Vorschau)

Amazon MemoryDB für Redis unterstützt jetzt die Vektorsuche in der Vorschau. Dabei handelt es sich um eine neue Funktion, mit der Sie Vektoren speichern, indexieren und suchen können. MemoryDB ist eine Datenbank, die In-Memory-Leistung mit Multi-AZ-Zuverlässigkeit kombiniert. Mit der Vektorsuche für MemoryDB können Sie mithilfe der beliebten Open-Source-Redis-API Machine Learning (ML)- und generative KI-Anwendungen mit höchsten Leistungsanforderungen in Echtzeit entwickeln. Die Vektorsuche für MemoryDB unterstützt das Speichern von Millionen von Vektoren mit einstelligen Millisekunden-Antwortzeiten für Abfragen und Aktualisierungen sowie Zehntausenden Abfragen pro Sekunde (QPS) mit einem Recall von über 99 %. Sie können Vektoreinbettungen mithilfe von KI/ML-Services wie Amazon Bedrock und SageMaker generieren und in MemoryDB speichern.
Quelle: aws.amazon.com