google-site-verification: googlefa726c33bfe55042.html Nvidia GeForce GTX 680 - Info Silent Install
Follow InfoSilent on Twitter Follow AlemaoAddons on facebook

Nvidia GeForce GTX 680

Os infindáveis rumores e especulações que circularam pela web nos últimos meses em torno da geração de GPUs Kepler da NVIDIA finalmente chega ao fim hoje, com o lançamento oficial da GeForce GTX 680.
Vale ressaltar que muitos dos rumores se mostraram infundados, como foi o caso, por exemplo, de uma notícia veiculada nos principais canais de informação, que mostrava as supostas especificações da linha Kepler, com expressivo ganho de performance frente a Radeon 7970. Entretanto,
outras especulações acabaram por se comprovar, como a notícia de que as novas GeForces teriam clocks dinamicamente ajustáveis, e outra que estimava o tamanho do die da GK104.
Se, por um lado, os rumores ajudam no sentido de se tentar montar o “quebra-cabeças” de um lançamento, por outro, podem prejudicar na medida em que se cria uma grande expectativa por parte da comunidade, que em muitos casos, acaba por não se comprovar na realidade. Foi assim no passado e certamente o será no futuro. Os rumores e especulações fazem parte do jogo da indústria e da mídia.

A GTX 680 – como o próprio nome sugere – é a placa single-GPU mais poderosa da NVIDIA desta nova geração, e é com imensa satisfação que apresentamos em primeiríssima mão, em caráter super exclusivo à comunidade brasileira, a sua análise completa.
Decididamente a NVIDIA “recheou” a GeForce GTX 680 com muitos predicados. O primeiro deles, sem dúvidas, é a imensa quantidade de CUDA Cores (processadores gráficos, também conhecidos como Sream Processors ou Shader Cores). São nada mais nada menos do que três vezes mais núcleos de processamento em relação à GTX 580! Além disso, os elevados clocks da GPU e memória – respectivamente em 1006Mhz e 6000Mhz – são outros pontos que saltam aos olhos do mercado.
Contudo, a placa apresenta outros destaques bem interessantes, como é o caso do GPU Boost – que turbina dinamicamente os clocks da placa – dos filtros proprietários FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.
Por último, mas não por menos, um ponto que, no início dos rumores, foi taxado pela comunidade como infundado, mas que acabou se confirmando. É o TDP em impressionantes 195W! Isso representa expressivos 55W a menos do que a sua rival HD 7970. Aliás, fazia um bom tempo que a NVIDIA não tinha uma GeForce com consumo nominal menor que uma Radeon. Isso só foi possível graças à mudança empregada na arquitetura, além, é claro, do refinamento no processo de fabricação dos chips gráficos, ao utilizar a litografia em 28nm.
Com toda a expectativa gerada em torno da linha Kepler, a pergunta que não quer calar é: será a GeForce GTX 680 “tudo isso” em relação à Radeon HD 7970? Bem, para responder a essa pergunta, nada melhor do que acompanhar na íntegra a nossa análise da nova “queridinha” da NVIDIA.

Os recursos da GTX 680
Abaixo, um resumo das principais especificações da GeForce GTX 680.

• 3,54 bilhões de transistores;
• Nova litografia em 28 nm;
• Área do die (estimado): 294mm2;
• Frequência de operação das texturas e ROPs (GPU): 1006MHz;
• 1536 CUDA Cores/shader processors;
• Frequência de operação das memórias: 6008MHz (GDDR5);• Quantidade de memória: 2GB;
• Interface de memória: 256bits;
• TDP: máximo de 195 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost, Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7.
E ainda:
• Nova Geração do Streaming Multiprocessor (SMX);
• 192 CUDA cores por SMX, 6x mais que a GF110 (GTX 580);
• 8 PolyMorph Engine 2.0;

Conforme já mencionado no tópico anterior, os engenheiros da NVIDIA se superaram no que diz respeito à imensa quantidade de CUDA Cores presentes no GK104. Triplicar o número de núcleos de processamento foi algo tão surreal, que os primeiros rumores que apontavam esse fato foram prontamente taxados por grande parte da comunidade como “fake”, por ser algo supostamente impossível de acontecer.
Isso foi possível, em grande parte, pela mudança na arquitetura da geração Kepler. Ao reduzir a quantidade de Streaming Multiprocessor pela metade em relação à Fermi, a NVIDIA conseguiu aumentar a eficiência dos SMXs, na medida em que multiplicou por 6 (de 32 para 192) a quantidade de CUDA Cores em cada cluster de processamento.
Aliás, a GTX 680 tem vários números que surpreendem até mesmo aos fãs mais apaixonados pela linha GeForce. A frequência de operação é um destes casos. Trata-se da primeira GeForce que sai de fábrica, por padrão, com GPU trabalhando na casa dos gigahertz, mais precisamente 1,006Ghz, ou 1006Mhz (30% acima dos 772Mhz da GTX 580). O clock da memória é outro exemplo da força dos números da VGA. Com 6008Mhz (50% mais veloz que a GTX 580), é a primeira vez, desde a introdução das ultra rápidas GDDR5, que uma GeForce tem VRAM mais rápida que uma Radeon.
Outro número taxado como “algo sem fundamento” – e que se mostrou verdadeiro, foi a dissipação térmica (TDP). Apesar dos 3,54 bilhões de transistores (18% a mais que a GTX 580), 1536 CUDA Cores (200% a mais que a GTX 580) e clocks extremamente elevados para o segmento, a GeForce GTX 680 possui TDP máximo de 195W! Trata-se de um valor extremamente surpreendente, ainda mais em comparação aos 244W da GTX 580. De quebra, é a primeira vez em muitos anos que uma GeForce de alto desempenho apresenta uma dissipação térmica nominal menor que uma Radeon concorrente. Ou seja, a GTX 680 enterra de vez qualquer resquício de que as placas da NVIDIA são “beberronas” em termos de consumo de energia.
Vale mencionar que, para suprir os 195W, a companhia disponibilizou uma configuração inédita na indústria, ao disponibilizar dois conectores de energia de seis pinos (suprindo assim 150W, além dos 75W adicionais do PCI Express), ao invés do tradicional modelo 6+8 pinos. Com isso, reduz-se a necessidade da utilização de adaptadores (o que não é recomendável), além de aumentar o espectro de fontes (PSUs) compatíveis com a placa. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 550W.
Fechando os “números mágicos” da GTX 680 – e que mais uma vez foi alvo de ceticismo por grande parte do mercado – temos a área do die do chip gráfico GK104. Com 294 mm² (contra 520mm² da GTX 580), trata-se de algo surpreendente – mais uma vez – se levarmos em conta sobretudo a quantidade de CUDA Cores e transistores.
É bom que se diga que grande parte destes “números mágicos” se devem à reengenharia por que passou a arquitetura Fermi – dando origem à Kepler, além, é claro, do refinamento no processo de fabricação em 28nm.





As novidades da Kepler
Conforme já mencionado no decorrer desta análise, a nova geração Kepler trouxe gratas surpresas para os usuários. Algumas, exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, com o é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir tais novidades.
DirectX 11.1
Apesar do suporte à mais recente API Gráfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não está tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de várias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] será
compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API Gráfica da Microsoft não trará tantas melhorias gráficas; e mais ainda: deverá demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provável que as GeForces da série 700 ou mesmo 800 já tenha sido lançadas.
Outro ponto é que, até o Windows 8 chegar, tal recurso ficará apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:
• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação gráfica e vídeo;
• Suporte nativo ao Stereo 3D.
PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessária, criando assim um verdadeiro gargalo para o desempenho da VGA.
Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.
Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.
Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. Já nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuário deverá ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.
GPU Boost

Exclusivo das GeForces, trata-se da tecnologia combinada de harware com software de ajuste dinâmico nos clocks.
Semelhante ao Turbo Boost da Intel e ao TurboCore da AMD, o GPU Boost tem como objetivo disponibilizar a quantidade de megahertz necessária para o bom funcionamento das tarefas, a depender, claro, de certas condições, como consumo de energia e temperatura da GPU.
Com a Kepler, há agora os conceitos de clocks base (base clock) e clock de impulso (boost clock). Dessa forma, a placa opera por padrão em 1006Mhz, podendo ir a 1058Mhz (overclock de 5%) quando for preciso um maior poder de processamento (como a renderização de gráficos complexos), desde, claro, que haja condições para isso (TDP e temperatura abaixo do máximo permitido). Em outras palavras, a tecnologia utiliza a diferença entre o consumo atual (varia de acordo com o software executado) e o TDP máximo da placa, para alavancar o clock base e aumentar a performance, chegando assim ao patamar que a NVIDIA denominou de "boost clock".
Em alguns casos, esse upgrade dinâmico pode superar em até 10% o clock base da GeForce, ou seja, ultrapassar 1,1Ghz, desde, novamente, que haja condições para isso. O mais bacana é que, se você for um overclocker por natureza e quiser elevar ainda mais o desempenho via overclock tradicional, o GPU Boost continuará funcionando mesmo com a placa overclockada, variando os clocks para cima e para baixo da mesma forma que em VGAs com clocks default.
Entretanto, caso o usuário esteja realizando tarefas triviais, como, por exemplo, surfando na web, ou utilizando uma suíte de escritório, o GPU Boost reduz automaticamente a frequência de operação do chip gráfico para economizar energia. Além de dar uma “ajudinha” no bolso do usuário no final do mês com a conta de energia, a tecnologia é particularmente interessante para o mundo dos portáteis, onde qualquer otimização na autonomia da bateria é bem vinda.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento gráfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.
Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing está no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.
Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio gráfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessário apenas uma GeForce GTX 680 e a utilização do FXAA para “dar conta do recado”.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsável pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.
Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente da GTX 680).
O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.
O filtro de Temporal Anti-aliasing está disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade gráfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. Já o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparável ao MSAA em 4X.
Inicialmente o filtro antisserilhamento temporal será implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que já estão desenvolvendo games com o novo filtro da NVIDIA.

Adptive VSync

O sincronismo vertical – VSync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuário. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.
Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive VSync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a má sincronização das imagens.
Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive VSync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive VSync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.
NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.
Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.
Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o “encodamento” H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.
O NVENC é capaz de lidar com as seguintes situações:
- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;
- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);
- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D;
- “Encodamento” para resolução de até 4096x4096 pixels.
É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o VSync gerou outro problema: a perda de frames (stuttering), também conhecido como “lag”. Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do VSync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).Fonte: Adrenaline
RSS/Feed: Receba automaticamente todas os artigos deste blog!
Clique aqui para assinar nosso feed. O serviço é totalmente gratuito

Nenhum comentário:

Postar um comentário

adicione seu comentário