Model AI generatif paling canggih dari OpenAI, Alphabet, dan Anthropic memerlukan akselerator AI yang mahal dan boros daya di data center untuk menghasilkan output. Contohnya, GPT-4.5 dari OpenAI diluncurkan secara bertahap karena membutuhkan sumber daya komputasi yang sangat besar.
Model AI dari startup Tiongkok, DeepSeek, yang dirilis awal tahun ini, membuat banyak orang terkejut soal pasar infrastruktur AI. DeepSeek berhasil membuat model yang lebih murah untuk dilatih dan dijalankan, tapi hasilnya tetap setara dengan model AI kelas atas dari perusahaan AS. Anggapan bahwa model AI butuh daya komputasi yang makin lama makin besar (yang selama ini jadi dasar optimisme para pendukung saham Nvidia) jadi terasa nggak sepasti itu lagi.
Fitur AI sudah mulai muncul di PC, HP, dan perangkat lain, tapi model AI yang cukup kecil untuk dijalankan di perangkat-perangkat itu biasanya masih kurang mumpuni. Tom’s Hardware sempat menyebut fitur AI Copilot+ PC dari Microsoft sebagai “lelucon” waktu pertama kali launching tahun lalu, dan The New York Times bilang fitur Apple Intelligence dari Apple masih “setengah matang” pada Oktober kemarin.
Ada beberapa kendala dengan AI yang langsung berjalan di perangkat (on-device AI). Pertama, AI generatif itu nggak deterministik, artinya input yang sama bisa memunculkan output yang sungguh berbeda-beda. Ini nggak masalah kalau kamu pakai AI untuk nulis blog, tapi nggak enak kalau butuh AI biar bisa jalanin tugas spesifik di HP dengan konsisten.
Masalah pertama mungkin nggak bakal bisa diselesaikan sepenuhnya, tapi masalah kedua bisa. Masalah kedua adalah PC dan HP punya batas memori dan tenaga komputasi, jadi ada batasan besar seberapa canggih model AI yang bisa dijalankan langsung di perangkat itu. Model AI seperti yang dipakai ChatGPT yang berjalan di data center butuh memori, komputasi, dan energi yang sangat besar untuk bisa bikin output. Jelas, nggak masuk akal kalau dijalankan di laptop yang cuma pakai baterai.
Microsoft mungkin punya solusi. Mereka baru-baru ini memamerkan model AI “1-bit” baru yang ukuran memorinya sangat kecil, cuma perlu 0.4 GB, dan bisa jalan di CPU saja. Hebatnya, performa model baru ini setara dengan model AI sekelasnya yang butuh jauh lebih banyak memori. Bahkan, dijalankan di CPU tunggal, model ini bisa menghasilkan output dengan kecepatan yang sebanding dengan kecepatan membaca manusia, cukup cepat untuk dipakai sehari-hari.
Nvidia saat ini menguasai pasar akselerator AI, dan hampir nggak mungkin AMD (NASDAQ: AMD) atau Intel (NASDAQ: INTC) bisa menyusul. Kalau tetap main di jalur yang sama seperti Nvidia, AMD dan Intel akan terus tertinggal jauh dari pemimpin pasar.
Tapi, terobosan dari DeepSeek dan Microsoft membuka kemungkinan bahwa inferensi AI (proses menjalankan model AI yang sudah dilatih) nantinya bisa dijalankan di CPU, baik di data center maupun di perangkat, tanpa harus mengorbankan kualitas. Biaya menjalankan model AI jadi bisa ditekan banget kalau akselerator GPU mahal dari Nvidia bisa dihilangkan dari proses, dan fitur AI di perangkat bakal makin menarik kalau model AI yang lebih besar bisa masuk di memori PC atau HP.
Intel dan AMD sama-sama sudah jual CPU server dan PC yang di dalamnya sudah ada akselerator AI. Beberapa CPU AMD EPYC server juga jago untuk tugas inferensi AI tertentu, dan CPU server Intel Granite Rapids bisa menjalankan model dengan 70 miliar parameter. Di pasar PC, baik AMD maupun Intel sekarang juga sudah sematkan prosesor AI khusus di dalam CPU mereka.
Nvidia terlihat sangat kuat, dan memang akan terus mendominasi kalau pasar infrastruktur AI tetap bergantung pada GPU data center yang super powerful. Tapi, posisi Nvidia bisa jadi terancam kalau model AI yang hebat sudah nggak butuh GPU mereka untuk dijalankan. Kalau secara finansial lebih masuk akal membangun data center AI yang penuh dengan CPU ketimbang GPU, ya orang bakal pilih itu. Model AI baru dari Microsoft ini sepertinya jadi langkah awal ke sana.
Pengeluaran di data center bisa mulai balik dari GPU ke CPU, dan ini bakal jadi kabar bagus buat AMD dan Intel. Untuk pasar PC, fitur AI yang semakin canggih dan bermanfaat bisa bikin permintaan PC meningkat lagi, bahkan bisa mengangkat pasar PC yang sedang kurang bergairah sejak pandemi. Hardware yang lebih bagus memang penting, tapi model AI yang kuat dan bisa jalan di memori kecil, seperti inovasi terbaru Microsoft, juga jadi kunci.
Nvidia nggak akan kalah di pasar AI kecuali “aturan mainnya” berubah. Dengan adanya upaya dari Microsoft dan perusahaan lain buat menurunkan kebutuhan komputasi dan memori untuk menjalankan model AI yang hebat, kelihatannya memang “aturan mainnya” sedang berubah sekarang. Intel dan AMD, yang selama ini selalu di belakang Nvidia di pasar akselerator AI, bisa-bisa jadi pemenang besar kalau inferensi AI benar-benar pindah ke CPU.
(KoranPost)
Sumber: finance.yahoo.com
https://finance.yahoo.com/news/microsoft-just-showed-future-ai-101000210.html