“Antes tarde do que nunca” deve ser o lema da ATI/AMD. Já não era sem tempo o lançamento da nova série de placas de vídeo da empresa, não só para competir contra a NVIDIA, mas também para renovar sua própria série consistida pela linha HD 2xxx.
No dia 14 de maio, entrava no mercado a ATI/AMD HD 2900XT, que iniciou o uso do conector de energia PCI Express de 8 pinos. Elevadíssima demanda por energia, alta dissipação térmica e mesmo assim não se transformou na melhor placa do mercado devido ao desempenho apresentado – ou seja, a falta de desempenho.
Estamos em 15 de Novembro e pelo visto a ATI/AMD passou os últimos 6 meses tentando resolver os problemas da HD 2900XT. Felicidade? Depende. No papel, as novas placas HD 3850 e 3870 são melhores do que a rival – a NVIDIA 8800GT. Mas gamer que é gamer (aliás, este é o foco das linhas High-End), não joga no papel, correto? 😉
Basicamente, a nova linha HD 3870 e 3850 da ATI/AMD começou com ponto positivo: abandonou os sufixos (como GT, Pro, XT e XTX). Agora a definição é nos quatro números, que podem ser decodificados assim: 1º – Geração / 2º – Família / 3º e 4º – variantes.
Com isso, podemos ver que as HD 38xx são bastante similares, onde a variante 70 é mais possante que a 50. Resumo: A HD 3870 será mais cara que a HD 3850. Fácil de entender? Ou não.
Mas aí mesmo já tem um ponto negativo: as placas de vídeo, mais precisamente as HD 29xx e suas “sucessoras” HD 38xx são da mesma geração (as HD 38xx utilizam uma versão mais polida da GPU utilizada na HD 29xx). Resumo: A nomemclatura nova da ATI/AMD tem um bom marketing também.
Bom, menos lero-lero e vamos ao que importa: as HD 3850 / 3870 vieram para combater as 8800GT (256MB – não lançada ainda / 512MB). Uma breve descrição das especificações:
HD 3850 (256MB GDDR3)
GPU: RV670 de 55nm @ 670MHz (as versões overclocked até o momento atingem no máximo 720MHz)
256MB GDDR3 256bits @ 1,66GHz (as versões overclocked até o momento atingem no máximo 1,9GHz)
Consumo máximo: ~95W
HD 3870 (512MB GDDR4)
GPU: RV670 de 55nm @ 775MHz (as versões overclocked até o momento atingem no máximo 857MHz)
512MB GDDR4 256bits @ 2,25GHz (as versões overclocked até o momento atingem no máximo 2,5GHz)
Consumo máximo: ~105W
8800GT (512MB GDDR3)
GPU: G92 de 65nm @ 600MHz (as versões overclocked até o momento atingem no máximo 700MHz)
512MB GDDR3 256bits @ 1,8GHz (as versões overclocked até o momento atingem no máximo 2GHz)
Consumo máximo: ~105W
Não coloquei dados da 8800GT com 256MB pois ela não foi lançada ainda 🙂
Além de clocks, memórias, GPUs, o que mais as novas ATI/AMD têm? Uma vantagem é o suporte para DirectX 10.1 (e shader 4.1), enquanto que a 8800GT suporta DirectX 10.0 (e shader 4.0). Bom, agora não é vantagem alguma, afinal, o DirectX 10.1 deverá fazer a estréia apenas com o Service Pack 1 do Windows Vista e nenhum jogo atual suporta o DirectX 10.1 (apesar de que um bom patch consiga resolver isto). Existem vantagens do DirectX 10.1 em cima do 10.0? Sim… mais pelo motivo de que vários opcionais do 10.0 terem sido transformados em obrigatórios no 10.1… mas teremos melhora tanto na imagem quanto no desempenho… o problema é quando: Este ano? Ano que vem? 2009? 2010?
Ambas as placas (HD 38xx e 8800GT) têm interface PCI Express 16x e são compatíveis com o padrão v2.0. Cada uma das placas também têm um conector de energia PCI Express de 6 pinos. As novas HD 38xx suportam o CrossFire X, onde é possível escalar o desempenho ao utilizar em conjunto 2, 3 ou 4 placas similares (claro, com placas mãe com chipsets compatíveis, como o ATI/AMD 790FX e drivers que serão lançados). Abaixo, detalhe de uma solução Quad CrossFire X com HD 3850.
Do lado verde, por enquanto, o futuro Tri-SLI somente abrange as 8800GTX e Ultra. O UVD está incluso em ambas as placas da ATI, um alívio visto que a AMD “omitiu” a falta do UVD no lançamento da HD 2900XT e depois disse que o UVD não era necessário na placa. Do lado da NVIDIA, a 8800GT oferece o Purevideo HD de segunda geração (VP2), mas ainda falta um refino nos drivers para destronar o UVD.
Abaixo, uma foto das novas placas: A HD 3850 utiliza um sistema de refrigeração de “1 slot” enquanto que a HD 3870 utiliza um com “2 slots”.
[ Concluindo ]
Gizmo resume: na prática, quem é quem agora? Bom, basicamente a HD 3870 não tira o trono da 8800GT, e no geral é 10% mais lenta (pelo que vi até agora, varia de 0 ~ 20%) dependendo do Game ou Benchmark utilizado e as configurações (como filtros e resolução). Mas há a premissa básica: A HD 3870 é mais barata que a 8800GT, na mesma proporção que seu desempenho.
Aí tudo vira uma escolha do usuário: precisando economizar, mas querendo uma boa placa? HD 3870. Acha que vale a pena investir um pouco mais e ter um desempenho superior? 8800GT.
Algumas ressalvas: Existe um ágio nas 8800GT devido ao baixo suprimento pela NVIDIA e a elevada demanda do mercado. Se a HD 3870 não tiver ágio e tiver suprimento suficiente, talvez a sua escolha recaia sobre a que você encontrar. O mesmo vale pra a HD 3850, que tem desempenho superior e preço agressivo para competir até contra as 8600 da NVIDIA. Quem sabe desta vez a tecnologia CrossFire (melhor dizendo: o CrossFire X) da ATI/AMD não comece a realmente competir contra o SLI da NVIDIA?
Veja alguns testes em:
Pra fechar essa blogada fenomenal (Nota: essa valeu o troco da semana, hein chefe :P), vale lembrar que:
- Os drivers das placas de vídeo fazem uma grande diferença, ou seja, daqui uma semana, um mês, tudo pode mudar. Até patches de Games podem favorecer um fabricante a outro
- Daqui a pouco pinta na área a 8800GT de 256MB… e pelo o que Gizmo viu até agora, será bye bye 8600, HD 3850 e por aí vai
- A GPU 8800 da NVIDIA foi lançada no dia 4 de Novembro de 2006…
E a mais incrível: Já existe denúncia de sites que “favoreceram” um determinado fabricante nos testes…
admin
> Gizmo: (Nota: essa valeu o troco da semana, hein chefe :P)
BOSS: Vai nessa viu Gizmo… 🙂
Thiago Rodrigo
Qto ao favorencimento de fabricantes seria muita inoscencia se nao houvesse já que é um mercado disputado pixel a pixel….! Vlw Gizmo!
eloi ulisses roggero
sera possivel fazer um crossfire com uma hd 2900 xt 1 giga ddr4 com uma hd 3870?
Gizmo
Por enquanto não é possível unir placas com GPUs diferentes como você mencionou (2900 + 3870).