Dine AI-arbejdsmængder i skyen: Google frigiver endelig TPU-beta

Video: Google om, hvordan TensorFlow Lite vil hjælpe med at opbygge bedre AI til smartphones Pete Warden, leder af TensorFlow-mobile / indlejrede team hos Google, om at bringe maskinlæring til telefoner og computere med enkelt bord.
Bygger du et lysdæk, tonehøjde eller præsentation? Her er de store takeaways:
  • Google har frigivet sine Cloud TPU-maskinlæringsacceleratorer i beta, hvilket kan hjælpe med at fremskynde træningen af ​​modeller for maskinlæring.
  • Virksomheder, der ønsker at øge deres fokus på maskinlæring og AI, bør betragte Google Cloud Platform som en levedygtig mulighed for deres arbejdsbelastning.

Google frigav mandag sine Tensor Processing Units (TPUs) i beta på Google Cloud Platform, hvilket giver en stærk mulighed for virksomhederne at øge deres indsats inden for kunstig intelligens (AI) og maskinlæring.

TPU'erne, der blev annonceret via et blogindlæg, vil gå langt i retning af at fremskynde uddannelsen af ​​modeller for maskinlæring - skabe modeller, der kan trænes natten over i stedet for over dage eller uger. Google annoncerede først sit arbejde med TPU'er for nogle år siden, men frigiver lige nu dem til at blive brugt af dets cloud-kunder.

Frigivelsen af ​​TPU'erne tilføjer det stigende antal computermuligheder, der er tilgængelige for virksomheder, der ønsker at lave seriøst maskinlæring og AI-arbejde i skyen. I oktober 2017 stillede Amazon Web Services (AWS) NVIDIA Tesla V100 GPU'er til rådighed i EC2 blandt en række andre maskinlæringsværktøjer, og Microsoft stillede også de samme GPU'er til rådighed i slutningen af ​​2017 for HPC og AI arbejdsbelastning.

I betragtning af den voksende betydning af AI og maskinlæring, vil muligheden for at behandle arbejdsmængderne og træne disse modeller blive tabelindsatser blandt de største cloud-udbydere. Google har givet sig et navn som et af de førende navne inden for maskinlæring og dyb læring, og tilgængeligheden af ​​TPU'er bør være en alvorlig overvejelse for skykunder, der leder efter et sted at køre deres arbejdsmængder for AI og maskinlæring.

I sit blogindlæg beskriver Google Cloud TPU'er som en "familie af Google-designede hardwareacceleratorer, der er optimeret til at fremskynde og skalere specifikke ML-arbejdsbelastninger, der er programmeret med TensorFlow." Disse acceleratorer har været kraften bag dele af Google-datacentre siden 2015, som bemærket af vores søsterwebsted ZDNet, og tilbyder 180 teraflops flydepunktpræstation på et enkelt bord, siger posten. Ved en nylig Google I / O-begivenhed sagde administrerende direktør Sundar Pichai, at Google overvejede sin beregningsarkitektur for at bygge "AI-første datacentre."

I stedet for at skulle dele en klynge, får dataforskere adgang til en netværksfastgjort Cloud TPU gennem en Google Compute Engine VM, siger posten. De kan kontrollere og tilpasse dem til at imødekomme behovene i deres arbejdsbyrde.

Ud over at tilbyde TPU'er tilbyder Google Cloud Platform også adgang til CPU'er som Intel Skylake-serien og GPU'er som den førnævnte NVIDIA Tesla V100. Cloud TPU-fakturering beregnes af det andet til en sats på $ 6, 50 pr. Cloud TPU pr. Time, siger posten.

I et separat indlæg annoncerede Google også, at GPU'er i Kubernetes Engine er i beta. Disse kunne også give et boost til lignende indsats inden for maskinlæring og billedbehandling.

Cloud og alt som et service nyhedsbrev

Dette er din go-to ressource for det nyeste om AWS, Microsoft Azure, Google Cloud Platform, XaaS, skysikkerhed og meget mere. Leveres mandage

Tilmeld dig i dag

© Copyright 2020 | mobilegn.com