Einführung der Amazon Elastic Inference

Die Amazon Elastic Inference ermöglicht Ihnen jeder beliebigen Amazon EC2- und Amazon SageMaker-Instanz genau die richtige GPU-Beschleunigung zuweisen, um die Kosten für das In Deep Learning Inference-Verfahren um bis zu 75 % zu reduzieren. Die Amazon Elastic Inference unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle, und weitere Frameworks werden in Kürze zur Verfügung stehen
Quelle: aws.amazon.com

Published by