Cloud TPU VMs are generally available

Earlier last year, Cloud TPU VMs on Google Cloud were introduced to make it easier to use the TPU hardware by providing direct access to TPU host machines. Today, we are excited to announce the general availability (GA) of TPU VMs.With Cloud TPU VMs you can work interactively on the same hosts where the physical TPU hardware is attached. Our rapidly growing TPU user community has enthusiastically adopted this access mechanism, because it not only makes it possible to have a better debugging experience, but it also enables certain training setups such as Distributed Reinforcement Learning which were not feasible with TPU Node (networks accessed) architecture.What’s new for the GA release?Cloud TPUs are now optimized for large-scale ranking and recommendation workloads. We are also thrilled to share that Snap, an early adopter of this new capability, achieved about ~4.65x perf/TCO improvement to their business-critical ad ranking workload. Here are a few highlights from Snap’s blog post on Training Large Scale Recommendation Models:> TPUs can offer much faster training speed and significantly lower training costs for recommendation system models than the CPUs;> TensorFlow for cloud TPU provides a powerful API to handle large embedding tables and fast lookups;> On TPU v3-32 slice, Snap was able to get a ~3x better throughput (-67.3% throughput on A100) with 52.1% lower cost compared to an equivalent A100 configuration (~4.65x perf/TCO)Ranking and recommendationWith the TPU VMs GA release, we are introducing the new TPU Embedding API, whichcan accelerate ML Based ranking and recommendation workloads.Many businesses today are built around ranking and recommendation use-cases, such as audio/video recommendations, product recommendations (apps, e-commerce), and ad ranking. These businesses rely on ranking and recommendation algorithms to serve their users and drive their business goals. In the last few years, the approaches to these algorithms have evolved from being purely statistical to deep neural network-based. These modern DNN-based algorithms offer greater scalability and accuracy, but they can come at a cost. They tend to use large amounts of data and can be difficult and expensive to train and deploy with traditional ML infrastructure.Embedding acceleration with Cloud TPU can solve this problem at a lower cost. Embedding APIs can efficiently handle large amounts of data, such as embedding tables, by automatically sharding across hundreds of Cloud TPU chips in a pod, all connected to one another via the custom-built interconnect.To help you get started, we are releasing the TF2 ranking and recommendation APIs, as part of the Tensorflow Recommenders library. We have also open sourced DLRM and DCN v2 ranking models in the TF2 model garden and the detailed tutorials are available here.Framework supportTPU VM GA Release supports the three major frameworks (TensorFlow, PyTorch and JAX) now offered through three optimized environments for ease of setup with the respective framework. GA release has been validated with TensorFlow v2-tf-stable, PyTorch/XLA v1.11and JAX [0.3.6].TPU VMs Specific FeaturesTPU VMs offer several additional capabilities over TPU Node architecture thanks to the local execution setup, i.e. TPU hardware connected to the same host that users execute the training workload(s).Local execution of input pipeline Input data pipeline executes directly on the TPU hosts. This functionality allows saving precious computing resources earlier used in the form of instance groups for PyTorch/JAX distributed training. In the case of Tensorflow, the distributed training setup required only one user VM and data pipeline executed directly on TPU hosts.The following study summarizes the cost comparison for Transformer (FairSeq; PyTorch/XLA) training executed for 10 epochs on TPU VM vs TPU Node architecture (Network attached Cloud TPUs):Google Internal data (published benchmarkconducted on Cloud TPU by Google).Distributed Reinforcement Learning with TPU VMsLocal execution on the host with the accelerator, also enables use cases such as Distributed Reinforcement Learning. Canonical works in this domain such as seed-RL, IMPALA and PodTracer have been developed using Cloud TPUs.“…, we argue that the compute requirements of large scale reinforcement learning systems are particularly well suited for making use of Cloud TPUs , and specifically TPU Pods: special configurations in a Google data center that feature multiple TPU devices interconnected by low latency communication channels. “—PodTracer, DeepMindCustom Ops Support for TensorFlowWith direct execution on TPU VM, users can now build their own custom ops such as TensorFlow Text. With this feature, the users are no longer bound to TensorFlow runtime release versions.What are our customers saying?“Over the last couple of years, Kakao Brain has developed numerous groundbreaking AI services and models, including minDALL-E, KoGPT and, most recently, RQ-Transformer. We’ve been using TPU VM architecture since its early launch on Google Cloud, and have experienced significant performance improvements compared to the original TPU node set up. We are very excited about the new features added in the Generally Available version of TPU VM, such as Embeddings API, and plan to continue using TPUs to solve some of the globe’s biggest ‘unthinkable questions’ with solutions enabled by its lifestyle-transforming AI technologies”—Kim Il-doo, CEO of Kakao BrainAdditional Customers’ testimonials are available here.How to get started?To start using TPU VM, you can follow one of our quick starts or tutorials. If you are new to TPUs you can explore our concepts deep-dives and system architecture. We strive to make Cloud TPUs – Google’s advanced AI infrastructure – universally useful and accessible.Related ArticleGoogle showcases Cloud TPU v4 Pods for large model trainingGoogle’s MLPerf v1.1 Training submission showcased two large (480B & 200B parameter) language models using publicly available Cloud TPU v…Read Article
Quelle: Google Cloud Platform

Amazon Connect unterstützt jetzt bis zu sechs Teilnehmer bei einem Kundenservice-Anruf

Amazon Connect unterstützt jetzt bis zu sechs Teilnehmer bei einem Kundenservice-Anruf – dies ermöglicht es Ihnen, alle Parteien hinzuzufügen, die für eine effiziente Lösung des Kontakts erforderlich sind. So kann beispielsweise ein Kundendienstmitarbeiter eines Finanzdienstleisters beim Abschluss einer Hypothek sowohl einen Hypothekenmakler, als auch den Ehepartner des Kunden, einen Übersetzer und einen Kontrolleur in den Anruf einbeziehen, um das Problem schneller zu lösen. Diese Funktion ist von Anfang an verfügbar und kann in der AWS-Konsole aktiviert werden.
Quelle: aws.amazon.com

Amazon SageMaker Canvas wird um neue Datenaufbereitungsfunktionen und Updates zur Bedienerfreundlichkeit erweitert

Amazon SageMaker Canvas ist eine visuelle Point-and-Click-Oberfläche, mit der Geschäftsanalysten selbst genaue ML-Vorhersagen erstellen können – ohne Erfahrung mit Machine Learning zu haben oder eine einzige Zeile Code schreiben zu müssen. Mit SageMaker Canvas ist es einfach, auf Daten aus verschiedenen Quellen zuzugreifen und diese zu kombinieren, Daten automatisch zu bereinigen und eine Vielzahl von Datenanpassungen vorzunehmen sowie ML-Modelle zu entwickeln, um mit wenigen Klicks präzise Vorhersagen zu treffen.
Quelle: aws.amazon.com

Die neue Amazon-ElastiCache-Konsole ist jetzt verfügbar

Die neue Konsole von Amazon ElastiCache bietet Ihnen eine intuitive Art der Verwaltung von ElastiCache-Ressourcen mit einfacherer Navigation und reichhaltigeren Kontextinformationen. Die neue Konsole verfügt über ein einheitlicheres Erscheinungsbild mit anderen AWS-Service-Konsolen.
Quelle: aws.amazon.com

Amazon Braket Hybrid Jobs unterstützt jetzt eingebettete Schaltungssimulationen und verbessert so die Leistung gewisser hybrid-quantenklassischer Algorithmen um mehr als das 10-fache

Amazon Braket, der Quanten-Computing-Service von AWS, ist darauf ausgelegt, Kunden die Durchführung wissenschaftlicher Forschung und Softwareentwicklung mit Quantencomputern zu erleichtern. Wir freuen uns, heute bekanntgeben zu können, dass Amazon Braket Hybrid Jobs, die Möglichkeit zum Kombinieren von Quanten-Computing und klassischem Computing zum Erkunden hybrider Algorithmen, jetzt eingebettete Schaltungssimulatoren unterstützt und so die Leistung um das 10-fache oder mehr verbessert. Dadurch, dass Sie den Quantensimulator näher an ihren klassischen Algorithmus heranbringen, können Sie die Umlaufzeit des Simulators gegenüber dem Einsatz der On-Demand-Schaltungssimulatoren von Braket verringern. Mit dieser neuen Funktion lässt sich ein Leistungsengpass verringern, wenn große Mengen von Quantensimulationsaufgaben laufen, die jeweils nur eine geringe Zahl von Qubits, im Allgemeinen bis zu ~25 Qubits, umfassen.
Quelle: aws.amazon.com

Amazon Lex unterstützt jetzt benutzerdefiniertes Vokabular

Amazon Lex ist ein Service zur Entwicklung von Konversations-Schnittstellen für Sprache und Text in jeder Anwendung. Ab heute können Sie Amazon Lex zusätzliche Informationen über den Vorgang der Spracheingabe geben, indem Sie ein benutzerdefiniertes Vokabular erstellen. Ein benutzerdefiniertes Vokabular ist eine Liste von domänenspezifischen Begriffen oder einzigartigen Wörtern (z. B. Markennamen, Produktnamen), die schwieriger zu erkennen sind. Sie erstellen die Liste und fügen sie der Bot-Definition hinzu, damit Amazon Lex diese Wörter verwenden kann, wenn es die Absicht des Benutzers sicherstellt oder Informationen in einem Gespräch sammelt. Auf diese Weise können Sie die Spracherkennung verbessern und dem Benutzer ein besseres Erlebnis bieten.
Quelle: aws.amazon.com

Anzeige: Zum smarten Auto dank Millionen Feedbacks

Daten sammeln, analysieren, Funktionen verbessern und implementieren: Mit der Big-Loop-Lösung von CARIAD werden Autos zu selbstlernenden Digital Devices. Wie die Entwickler damit neue und sichere Funktionen für die Kunden umsetzen – und welche Chancen das potenziellen Bewerbern bietet. (VW)
Quelle: Golem