CDK For Kubernetes (CDK8s) kündigt die allgemeine Verfügbarkeit von CDK8s+ und Support für Manifestvalidierung an

CDK For Kubernetes Plus (CDK8s+) ist eine mehrsprachige Klassenbibliothek für die Definition von Kubernetes-Anwendungen unter Verwendung von allgemeinen, absichtsbasierten Konstrukten. Kunden, die Kubernetes-Anwendungen definieren, weisen darauf hin, dass die Wartbarkeit von Kubernetes-Manifesten eine Herausforderung darstellt. CDK8s+ zielt darauf ab, die Einstiegshürde zu senken und die Wartbarkeit von Kubernetes-Manifesten zu verbessern, indem es ein individuelles Konstrukt für jedes Kubernetes-Kernobjekt anbietet, wodurch eine reichhaltigere API mit geringerer Komplexität offengelegt wird. Mit dieser Einführung ist CDK8s+ nun allgemein verfügbar und stabil im Einsatz. Das bedeutet, dass die API unverändert bleibt und vollständig unterstützt wird (keine gravierenden Änderungen), zumindest bis zur nächsten Hauptversion. CDK8s+ wird als separate Bibliothek für jede Kubernetes-Spec-Version angeboten. Alle Bibliotheken sind jetzt allgemein verfügbar und stabil.
Quelle: aws.amazon.com

Amazon SageMaker ermöglicht es Kunden jetzt, Tausende von GPU-Modellen mit Multi Model Endpoint kosteneffizient zu hosten

Amazon SageMaker Multi-Model Endpoint (MME) ist eine vollständig verwaltete Funktion von SageMaker Inference, die es Kunden ermöglicht, Tausende von Modellen auf einem einzigen Endpunkt bereitzustellen und Kosten zu sparen, indem sie Instances, auf denen die Endpunkte ausgeführt werden, für alle Modelle gemeinsam nutzen. Bis heute wurde MME nur für Machine-Learning-Modelle (ML) unterstützt, die auf CPU-Instances laufen. Jetzt können Kunden MME nutzen, um Tausende von ML-Modellen auch auf GPU-basierten Instances bereitzustellen und so potenziell 90 % der Kosten einzusparen.
Quelle: aws.amazon.com

AWS-Organizationskonsole ermöglicht Benutzern jetzt die zentrale Verwaltung von primären Kontaktinformationen für AWS-Konten

Heute erweitern wir die AWS-Organizations-konsole, damit du die primären Kontaktinformationen für deine AWS-Konten zentral anzeigen und aktualisieren kannst. Dies folgt auf die Veröffentlichung der API für primäre Kontaktinformationen, mit der du die primären Kontaktinformationen für Konten in deiner Organisation programmatisch verwalten kannst. Mit dieser Einführung kannst du jetzt auch die Konsole zur einfachen Durchführung dieses Vorgangs verwenden, ohne dich bei jedem Konto einzeln anmelden zu müssen. Wir haben bereits den Support für die API und die Organisationskonsole für alternative Kontakte eingeführt und der Support für zusätzliche Kontoeinstellungen wird in zukünftigen Versionen verfügbar sein.
Quelle: aws.amazon.com

AWS Batch unterstützt jetzt Amazon Elastic Kubernetes Service (Amazon EKS)

Heute hat AWS Batch den Support für Amazon Elastic Kubernetes Service (Amazon EKS) eingeführt, so dass Kunden ihre Aufträge auf Amazon EKS-Clustern als Kubernetes-Pods ausführen können. AWS Batch verwaltet die Skalierung von Kubernetes-Knoten, die Platzierung von Pods und unterstützt die Auftragsausführung mithilfe von Amazon Compute Cloud (Amazon EC2) oder Amazon EC2 Spot. Außerdem respektiert Batch andere Workloads auf diesen EKS-Clustern und platziert keine Aufträge auf Knoten, die nicht zu Batch gehören.
Quelle: aws.amazon.com

AWS Global Accelerator kündigt AddEndpoints- und RemoveEndpoints-APIs an

AWS Global Accelerator bietet jetzt zwei neue APIs, AddEndpoints und RemoveEndpoints, mit denen Sie Endpunkte hinter Ihrem Accelerator hinzufügen und entfernen können. Mit diesen neuen APIs können Sie jetzt Endpunkte hinter Ihren Accelerators konfigurieren, ohne zum Hinzufügen oder Entfernen von Endpunkten die vollständige Liste der Endpunkte angeben zu müssen. Sowohl die AddEndpoints- als auch die RemoveEndpoints-API kann bis zu zehn Endpunkte in einem einzigen API-Aufruf enthalten. Die neuen APIs tragen zu mehr Skalierbarkeit und weniger Fehlern bei der Verwaltung Ihrer Endpunkt-Workflows mit Global Accelerator bei. Sie können weiterhin die AddEndpointGroup und RemoveEndpointGroup APIs verwenden, um Endpunktgruppen hinzuzufügen und zu entfernen, und mit der DescribeEndpointGroup API können Sie alle Endpunkte hinter einem Accelerator beschreiben.
Quelle: aws.amazon.com

Amazon Aurora unterstützt jetzt T4g-Instances in AWS GovCloud (USA)-Regionen

Amazon Aurora unterstützt jetzt AWS Graviton2-basierte T4g-Datenbank-Instances in den AWS GovCloud (USA)-Regionen. T4g-Datenbank-Instances bieten eine Leistungsverbesserung von bis zu 49 % gegenüber vergleichbaren x86-basierten Datenbank-Instances der aktuellen Generation. Sie können diese Datenbank-Instances starten, wenn Sie Amazon Aurora MySQL-Compatible Edition und Amazon Aurora PostgreSQL-Compatible Edition verwenden.
Quelle: aws.amazon.com

AWS Batch erhöht die Rechen- und Speicherressourcenkonfigurationen für Aufträge vom Fargate-Typ um das Vierfache

AWS Batch-Kunden können jetzt Aufträge mit Fargate-Typ einreichen, um bis zu 16 vCPUs zu verwenden, was einer etwa vierfachen Steigerung gegenüber früher entspricht. vCPUs sind die primäre Rechenressource in Batch-Aufträgen mit Fargate-Typ. Eine höhere Anzahl an vCPUs ermöglicht es rechenintensiven Anwendungen wie Machine-Learning-Inferenz, wissenschaftlicher Modellierung und verteilter Analytik, leichter auf Fargate ausgeführt zu werden. Darüber hinaus können Kunden nun bis zu 120 GiB Speicher für Fargate-Aufträge bereitstellen, was ebenfalls einer vierfachen Steigerung gegenüber früher entspricht. Dies hilft ihren Batch-Aufträgen, speicherintensive Operationen auf Fargate besser durchzuführen. Größere vCPU- und Speicheroptionen können auch die Migration zu Serverless-Container-Computing für Aufträge vereinfachen, die mehr Rechenressourcen benötigen und nicht einfach in kleinere Container umgestaltet werden können.
Quelle: aws.amazon.com

Amazon EBS Snapshots Archive ist jetzt in AWS GovCloud (USA)-Regionen verfügbar, s dass Kunden bis zu 75 % der Kosten für Snapshot-Speicher sparen können

Mit Amazon Elastic Block Store (EBS) Snapshots Archive können Kunden bis zu 75 % der Speicherkosten für Amazon EBS Snapshots einsparen, auf die sie selten zugreifen und die sie länger als 90 Tage aufbewahren möchten. Amazon EBS-Snapshots sind inkrementell. Es werden nur die Änderungen seit dem letzten Snapshot gespeichert. Dies macht sie kostengünstig für tägliche und wöchentliche Backups, auf die häufig zugegriffen werden muss. Sie können Amazon EBS Snapshot Archive für Snapshots verwenden, auf die Sie alle paar Monate oder Jahre zugreifen und aus rechtlichen oder Compliance-Gründen langfristig aufbewahren möchten. Dadurch speichern Sie vollständige zeitpunktbezogene Snapshots zu niedrigeren Kosten, als dies bei der Speicherung auf der Standardstufe der Fall wäre. Sie können auch Amazon Data Lifecycle Manager verwenden, um Snapshots zu erstellen und sie automatisch basierend auf Ihren spezifischen Richtlinien zu EBS Snapshots Archive verschieben, wodurch die Notwendigkeit der Verwaltung komplexer benutzerdefinierter Skripte und das Risiko unbeaufsichtigter Speicherkosten weiter reduziert wird. 
Quelle: aws.amazon.com

Amazon Cognito bietet jetzt einen Löschschutz für Benutzerpools

Sie können nun den Löschschutz für Ihre Amazon Cognito Benutzerpools aktivieren. Wenn Sie einen Benutzerpool mit Löschschutz konfigurieren, kann der Pool von keinem Benutzer gelöscht werden. Der Löschschutz ist jetzt standardmäßig für neue, über die AWS-Konsole erstellte Benutzerpools aktiviert. Sie können den Löschschutz für einen bestehenden Benutzerpool in der AWS-Konsole, der AWS-Befehlszeilenschnittstelle und der API aktivieren oder deaktivieren. Der Löschschutz verhindert, dass Sie die Löschung eines Benutzerpools beantragen können, es sei denn, Sie ändern den Pool zuerst und deaktivieren den Löschschutz.
Quelle: aws.amazon.com

Bekanntgabe des Supports für dynamische Referenz auf Datensätze mit Parametern in Amazon SageMaker Data Wrangler

Wir freuen uns, heute die Möglichkeit des dynamischen Supports verschiedener auf S3 gespeicherter Datensätze durch die Verwendung von Parametern in Amazon SageMaker Data Wranglerbekannt geben zu können. Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für die Zusammenführung und Vorbereitung von Daten für Machine Learning (ML) von Wochen auf Minuten. Mit Data Wrangler kannst du den Prozess der Datenvorbereitung und des Feature Engineering vereinfachen und jeden Schritt des Datenvorbereitungs-Workflows, einschließlich der Datenauswahl, -bereinigung, -erkundung und -visualisierung, über eine einzige visuelle Oberfläche abschließen. Bisher hatten Kunden keine einfache Möglichkeit, dynamisch auf Datensätze zu verweisen, wenn sie Verarbeitungsaufträge von Data Wrangler nach einem Zeitplan ausgeführt haben. Den Kunden fehlte auch eine Möglichkeit, Dateien in einem S3-Bucket für die Verarbeitung leichter herauszufiltern. Außerdem fehlte den Kunden eine einfache Möglichkeit, die Datenquellen zu ändern, wenn sie einen Verarbeitungsauftrag von Data Wrangler über den „Auftrag erstellen“-Workflow oder ein Verarbeitungsnotebook von Data Wrangler ausgeführt haben.
Quelle: aws.amazon.com