Selepas NVIDIA, Amazon dan Microsoft melancarkan cip AI terkini mereka tahun ini, tiba giliran AMD pula untuk menawarkan produk mereka iaitu GPU Instinct MI300X GPU dan APU MI300A. Menurut AMD, cip terkini mereka ini mempunyai prestasi yang lebih baik berbanding NVIDIA H100 yang pada waktu ini merupakan cip AI paling kerap digunakan untuk melatih model AI.
AMD Instinct MI300X ialah GPU yang dibina menggunakan senibina AMD CDNA 3. Jika dibandingkan dengan GPU Instinct MI250X sebelum ini, MI300X mempunyai 40% lebih banyak CU, kapasiti memori 1.5x lebih besar dan dilengkapi memori sehingga 192 GB HBM3 dengan lebar jalur mencecah 5.3 TB/s. Menerusi platform AMD Instinct, lapan MI300Xi boleh digabungkan. Plaform AMD Instinct menawarkan prestasi 1.6x lebih baik berbanding NVIDIA H100 HGX dan satu-satunya platform yang menjalankan model dengan 70 bilion parameter.
APU MI300A pula ialah sebuah accelerated processing unit (APU) yang menggabungkan teras CPU AMD ZEN 4 dan GPU CDNA 3 dengan memori 128GB HBM3. Apabila dibandingkan dengan Instinct MI250X, MI300A menawarkan peningkatan prestasi 1.9X untuk setiap Watt. Superkomputer El Capitan di Lwrence Livermore National Laboratory telah disahkan menggunakan APU ini dengan ia bakal menjadi yang kedua dengan kemampuan memproses exaskala.
AMD Instinct | Senibina | CU GPU | Teras CPU | Memori | Lebar jalur memori | Nod proses |
MI300A | AMD CDNA 3 | 228 | 24 “Zen 4” | 128GB HBM3 | 5.3 TB/s | 5nm / 6nm |
MI300X | AMD CDNA 3 | 304 | N/A | 192GB HBM3 | 5.3 TB/s | 5nm / 6nm |
Platform | AMD CDNA 3 | 2,432 | N/A | 1.5 TB HMB3 | 5.3 TB/s per OAM | 5nm / 6nm |