NVIDIA: Quad core kan faktisk bruge mindre strøm end dual core

Siden begyndelsen af ​​2011 har NVIDIA været i en tåre på mobilmarkedet og hoppet foran Qualcomm og Texas Instruments. NVIDIAs Tegra 2 dual core-processor var overalt på CES 2011 i januar, idet de næsten alle de mest efterlængede Android-enheder fra Motorola Xoom til ASUS Eee Pad til Motorola Atrix til T-Mobile G-Slate.

Mens NVIDIA gav os den første dual core ARM-processor, giver Tegra-chips også ret god batterilevetid for de smartphones og tablets, der bruger dem. Jeg talte med NVIDIA på CTIA Wireless 2011 om, hvordan det trækker stærk ydelse og lang batterilevetid på samme tid, og virksomheden tilskrev det to faktorer:

  1. Det paradoksale faktum, at jo flere kerner en chip har, desto mindre strømafløb til mange aktiviteter
  2. Strammere integration mellem CPU og GPU end konkurrenter

NVIDIA Tegra, som er en system-on-a-chip (SoC), der indeholder både CPU og GPU, er mindre end en krone. Fotokredit: Jason Hiner

Flere kerner, mindre strømafløb

Sidste måned, da TI og Qualcomm annoncerede deres dual core chips, der kommer ud senere på året for at matche Tegra 2, afslørede NVIDIA sine quad core chips under kodenavnet Project Kal-El. Jeg talte med NVIDIA-direktør for teknisk marketing Nick Stam på CTIA, og han sagde, at tabletter, der kører NVIDIA-quad-core-chips, er på vej til at ankomme på tablets i august og på smartphones inden årets udgang.

Når man presses på, hvad quad core vil betyde for batteriets levetid - en stor bekymring for den gennemsnitlige bruger - bemærkede Stam, at quad core faktisk kan være bedre for batteriets levetid end dual core. Og han sagde, at de nuværende ARM-chips med dobbelt kerne kan være bedre på batteriets levetid end deres enkeltkernen.

Årsagen til, at det er tilfældet, ifølge Stam, er, at når en applikation er ordentligt flertråd og arbejdsmængden er spredt over to CPU'er, holder den spændingen og frekvensen for CPU'erne lavere på begge kerner. Den samme arbejdsbelastning på en CPU vil dog maksimere spændingen og frekvensen på CPU'en, og når CPU'en maksimeres, kører den varmere, og det er når den trækker meget mere strøm. Se på de to diagrammer nedenfor for at få et visuelt billede af dette koncept (du kan klikke på billederne for at få et større billede).

Naturligvis, hvis du har en tung arbejdsbelastning, der maksimerer ud begge kerner i en dual-core CPU - eller alle fire kerner på en quad-kerne - så bruger det mere strøm og tømmer batteriet mere end en chip med færre kerner. Men for aktiviteter som gennemsnitlig webbrowsing, e-mail og endda grundlæggende videoafspilning, kan disse ting spredes over kerner, så de mindre beskatter på systemet og trækker mindre strøm.

Bortset fra mit møde med NVIDIA, talte jeg på CTIA separat med LG, der bruger chips fra TI, Qualcomm og NVIDIA i sine forskellige smartphones. LG påpegede, at dens enheder, der kører Tegra 2, ser den bedste batterilevetid for flokken.

For mere baggrund om dette problem (fra NVIDIA's perspektiv), kan du se på NVIDIA-hvidbogen Fordelene ved flere CPU-kerner i mobile enheder.

Integration af CPU og GPU

Den anden faktor, som NVIDIA citerede som en kilde til energieffektiviteten af ​​dens chips, er dens stramme integration mellem CPU og GPU. Generelt er dette en primær fordel ved system-on-a-chip design, som både Qualcomm og TI også bruger. Fordelen for NVIDIA er, at den har designet sine egne grafikchips i et par årtier, så den har en masse ekspertise og intellektuel ejendom, som den kan bruge til at skjule ydeevne og effektivitet (se diagram over chipdesign nedenfor).

Kredit: NVIDIA

Stam sagde, at det faktum, at NVIDIA faktisk designer sin grafikprocessor er en vigtig del af fordelen, da grafik og display er nogle af de største faktorer, der har indflydelse på batteriets levetid på mobile enheder. NVIDIA-CPU'er fortæller smart deres grafiske chips om at slukke eller slukke for at spare strøm i løbet af den gennemsnitlige dag af mobilbrug og over tid, der øger batteriets levetidsgevinst.

Omvendt har Qualcomm ikke den samme ekspertise inden for grafikchips. Som et resultat lider Qualcomm-drevne enheder som HTC ThunderBolt - som er en absolut hastighedsdemon - af dårlig batterilevetid. Selvom vi ikke kan fastgøre alle batterispørgsmål fra ThunderBolt (og andre HTC-enheder som EVO og Incredible) på deres Qualcomm-chips, er CPU'en og grafikken en kritisk faktor i ligningen. Se ikke efter, at HTC snart begynder at bruge NVIDIA-chips. Virksomheden har et langsigtet partnerskab med Qualcomm, og Qualcomm er en investor i HTC.

Et par andre interessante kendsgerninger om NVIDIAs kommende quad-core-chip - den vil omfatte en GeForce GPU med 12 kerner, og den kan vise skærme op til 2560x1600.

Jeg vil følge op med Qualcomm og Texas Instruments for at få deres svar på disse spørgsmål og deres strategier for at imødegå NVIDIA.

© Copyright 2021 | mobilegn.com