10 tahun lalu, Nvidia meluncurkan GeForce 8800 bertenaga G80 dan mengubah game PC, komputasi selamanya

G80-Feature2

Pada 8 November 2006, Nvidia diluncurkan secara resmiarsitektur shader terpadu pertamanya dan GPU pertama yang kompatibel dengan DirectX 10, G80. Chip baru ini memulai debutnya dalam dua kartu baru, GeForce 8800 GTX $ 599 dan GeForce 8800 GTS $ 449. Saat ini, spesifikasi 8800 GTX tampak sederhana, bahkan kelas bawah, dengan 128 inti shader, 32 unit pemetaan tekstur, dan 24 Render Outputs (ROP), didukung oleh RAM 768MB. Tapi di tahun 2006, G80 adalah raksasa. Ini menyapu baik generasi GTX 7xx sebelumnya dari Nvidia dan seri Radeon X19xx dari ATI sepenuhnya, bahkan dalam game di mana Tim Red sebelumnya menikmati keunggulan kinerja yang signifikan.

Namun G80 tidak hanya menulis ulang berita utama performa - ia juga mendefinisikan ulang GPU itu, dan apa yang mampu mereka lakukan.

Untuk retrospektif ini, kami berbicara dengan dua insinyur Nvidia yang melakukan banyak pekerjaan pada G80: Jonah Alben, VP Senior Teknik GPU, dan John Danskin, VP Arsitektur GPU. Namun, sebelum kami menyelami, kami ingin memberikan sedikit konteks tentang apa yang membuat G80 begitu berbeda dari yang sebelumnya. Dimulai dengan GeForce 3 dan Radeon 8500 pada tahun 2001, baik kartu ATI maupun Nvidia dapat menjalankan program kecil melalui vertex dan pixel shader khusus yang dapat diprogram. Arsitektur desktop terakhir Nvidia yang menggunakan pendekatan ini adalah G71, yang dirilis pada 9 Maret 2006. Tampilannya seperti ini:



7900_blo7900_blockdiagramckdiagram

Diagram blok G71.

Dalam diagram ini, vertex shader adalah delapan blok khusus di atas, di atas bagian 'Cull / Clip / Setup'. 24 piksel shader adalah kelompok besar enam blok di tengah diagram, di mana setiap blok sesuai dengan empat jalur pipa piksel (total 24 piksel shader). Jika Anda tidak terbiasa dengan cara pembuatan GPU shader pra-terpadu, diagram ini mungkin terlihat agak aneh. G80, sebaliknya, lebih familiar:

blok-g80

Rangkaian Nvidia GTX 8800 adalah kartu grafis konsumen pertama yang menukar piksel khusus dan shader vertex dengan beragam prosesor streaming yang lebih sederhana (SP, kemudian disebut sebagai inti CUDA). Sementara GPU sebelumnya adalah prosesor vektor yang dapat beroperasi secara bersamaan pada komponen warna merah, hijau, biru, dan alfa dari satu piksel, Nvidia merancang G80 sebagai prosesor skalar, di mana setiap prosesor streaming menangani satu komponen warna. Pada tingkat tinggi, Nvidia telah beralih dari arsitektur GPU dengan perangkat keras khusus untuk jenis program shader tertentu ke serangkaian inti yang relatif sederhana yang dapat diprogram untuk melakukan jenis kalkulasi shader apa pun yang diperlukan aplikasi pada saat itu.

Inti yang lebih sederhana juga dapat dihitung lebih cepat. GeForce 7900 GTX dibangun pada proses 90nm dan mencapai 650MHz, sedangkan GeForce 8800 GTX dibangun pada proses “setengah node” 80nm dan menjalankan inti shadernya pada 1,35GHz. Tetapi seperti halnya arsitektur baru, ada risiko signifikan yang terlibat.

Wawancara kami telah diedit sedikit untuk kejelasan.

DAN:G80 memulai debutnya kurang lebih secara bersamaan dengan DirectX 10 dan merupakan GPU pertama yang dapat diprogram untuk debut PC. Itu juga jauh lebih besar dari chip Nvidia sebelumnya (GTX 7900 GTX memiliki 278 juta transistor, G80 adalah desain transistor 681 juta.) Apa beberapa tantangan yang terkait dengan membuat lompatan ini, baik dalam hal mengelola desain atau memilih yang mana fitur untuk disertakan dan didukung?

Album Jonah: Menurut saya, salah satu tantangan terbesar dengan G80 adalah pembuatan desain prosesor 'SM' baru sebagai inti dari GPU. Kami membuang seluruh arsitektur shader dari NV30 / NV40 dan membuat yang baru dari awal dengan arsitektur prosesor umum baru (SIMT), yang juga memperkenalkan metodologi desain prosesor baru.

Data benchmark HL2 ini dari Anandtech

Data benchmark HL2 ini dari Anandtech's ulasan menunjukkan betapa besarnya lompatan kinerja G80. HL2 adalah ATIjudul ramah.

DAN: Adakah fitur atau kemampuan G80 yang mewakili risiko bagi Nvidia, dalam hal biaya / kesulitan mati, tetapi Anda memasukkannya karena merasa risikonya sepadan?

Album Jonah: Kami benar-benar merasa bahwa komputasi itu berisiko. Keduanya dalam hal area - kami menambahkan area yang harus dibawa oleh semua produk game kami meskipun tidak akan digunakan untuk bermain game - dan dalam hal kerumitan dalam menggunakan komputasi sebagai mode operasi paralel untuk chip tersebut.

John Danskin: Ini diukur dengan cermat. Kami memberikan anggaran teknis dan area tetap untuk tim komputasi John Nickolls. Di dalam anggaran mereka, mereka melakukan pekerjaan luar biasa. G80 dirancang untuk menjalankan pixel shader yang jauh lebih rumit dengan lebih banyak percabangan, ketergantungan, dan persyaratan sumber daya daripada chip sebelumnya. Shader poster-child kami disebut oil slick dan panjangnya hampir 1.000 instruksi. Shader kompleks ini tidak ada dalam game pada saat itu, tetapi kami melihat bahwa grafik yang dapat diprogram baru saja dimulai.

DAN: Apakah semua taruhan ini terbayar? Apakah ada kemampuan yang tidak banyak diadopsi, atau fitur apa pun yang lebih berhasil dari yang Anda harapkan?

Album Jonah: Geometri shader (diperkenalkan di G80 dan DirectX 10) tidak banyak digunakan pada saat itu. Tetapi mereka adalah langkah pertama menuju investasi lain dalam geometri yang dapat diprogram (tessellation di Fermi, multi-proyeksi di Pascal) yang terbukti sangat berguna. Komputasi akhirnya menjadi lebih penting daripada yang saya kira pada saat itu - terutama, sangat menyenangkan melihatnya menjadi penting untuk bermain game.

John Danskin: Dalam jangka pendek, kami melampaui fleksibilitas inti shader kami. Untuk sebagian besar game yang dijalankan G80, sesuatu yang lebih sederhana mungkin lebih efisien. Dalam jangka panjang, G80 mendorong pengembangan konten yang lebih realistis dan lebih menarik, yang merupakan suatu kemenangan. Kami memiliki harapan tinggi (untuk komputasi GPU) tetapi itu mirip dengan startup. Kebanyakan startup gagal. Beberapa startup mengubah dunia. Komputasi GPU dimulai dengan menarik tetapi kecil. Sekarang ini adalah dasar dari pembelajaran mendalam. Hanya sedikit yang bisa meramalkan hal itu.

DAN: Berapa banyak dari garis keturunan G80 yang masih tersisa di kartu Nvidia modern? Apakah ada desain tindak lanjut (Tesla - Pascal) yang menurut Anda mewakili pergeseran generasi yang lebih besar daripada G80 dibandingkan dengan G71?

Album Jonah: Meskipun kami telah membuat perubahan arsitektur besar sejak saat itu (Fermi adalah perubahan arsitektur sistem utama dan Maxwell adalah perubahan besar lainnya pada desain prosesor), struktur dasar yang kami perkenalkan di G80 masih sangat banyak hingga saat ini.

Diagram Pascal

Pascal Nvidia mengemas lebih banyak inti daripada G80, dan menggunakan pengaturan fitur yang berbeda, tetapi Anda dapat melihat beberapa kesamaan di antara keduanya.

DAN: Debut G80 mendahului peluncuran resmi CUDA kira-kira delapan bulan - berapa banyak desain GPU yang digerakkan oleh apa yang ingin dicapai Nvidia dengan CUDA? Apakah ini kasus saat memulai dengan GPU yang dapat diprogram dan menyadari bahwa Anda dapat mencapai lebih banyak lagi, atau apakah NV memulai dari awal dengan rencana untuk menawarkan GPU yang dapat menawarkan performa game yang sangat baik dan performa komputasi yang superior juga?

John Danskin: Kami terutama didorong oleh game, tetapi kami melihat bahwa performa game dan komputasi saling melengkapi. Kami membuat mesin grafis yang paling dapat diprogram yang dapat kami rancang, dan kemudian kami memastikan bahwa itu juga dapat melakukan komputasi dengan baik. Visi John Nickolls adalah kami akan menangani masalah umum Komputasi Kinerja Tinggi.

DAN: Melihat ke belakang dengan melihat ke belakang, apakah peluncuran upaya G80 dan NV berikutnya membawa Anda ke tempat yang Anda kira?

Album Jonah: Itu telah membawa kami jauh melampaui apa yang saya harapkan saat itu. Secara khusus CUDA telah terbukti sukses besar. Desain dasar CUDA yang didefinisikan oleh John Nickolls, John Danskin, dan lainnya di awal masih ada hingga saat ini, baik dalam CUDA maupun dalam bahasa pemrograman serupa (DirectX Compute, OpenCL, dll.). Ternyata kami benar percaya bahwa dunia membutuhkan model pemrograman baru yang dirancang dengan cermat untuk pemrograman paralel - baik dalam hal cara mengekspresikan beban kerja maupun dalam hal cara membatasi programmer sehingga kode mereka akan terstruktur dengan cara yang cenderung berkinerja baik.

Percepatan yang didapat orang dengan CUDA pada GPU benar-benar luar biasa.

Itu adalah panggilan yang tepat untuk memberikan dukungan komputasi di semua GPU kami. Kami membangun basis produk yang sangat besar dan membuat komputasi GPU dapat diakses oleh siapa saja dengan ide yang membutuhkan kinerja lebih dari yang dapat ditangani oleh CPU tradisional. Perkembangan terkini seperti ledakan deep learning menurut saya terkait langsung dengan keputusan itu.

Kesimpulan

Revolusi sejati hanya terjadi pada kesempatan tertentu di industri PC. Sebagian besar produk bersifat iteratif dan evolusioner, daripada penemuan kembali grosir atau lompatan kinerja radikal. Debut G80, bagaimanapun, bisa dibilang salah satu momen ini - dan 10 tahun kemudian, kami angkat topi ke GPU yang meluncurkan ambisi HPC Nvidia dan memulai sebagian besar bisnis GPGPU. Saat ini, lebih banyak sistem superkomputer TOP500 menggunakan akselerator yang diturunkan dari Fermi atau Kepler daripada menggunakan gabungan perangkat keras AMD Radeon atau Intel Xeon Phi (66 sistem vs. superkomputer yang dilengkapi 26 Xeon Phi atau Radeon). Itu adalah bukti kerja Nvidia pada CUDA dan dukungan keseluruhannya terhadap komputasi GPGPU.

Catatan: Secara teknis, GPU Xenos ATI di Xbox 360 adalah GPU shader terpadu pertama di perangkat keras konsumen, tetapi Xenos bukanlah GPU berkemampuan DirectX 10 dan tidak pernah diterapkan dalam bisnis PC ATI. Arsitektur shader terpadu pertama ATI untuk PC adalah R600, yang diluncurkan pada 14 Mei 2007.

Copyright © Seluruh Hak Cipta | 2007es.com