
Selama sekitar satu dekade terakhir, bisnis telah memigrasikan lebih banyak beban kerja dari on-premise server (terbuka di tab baru) dan ke awan (terbuka di tab baru)dalam upaya memanfaatkan fleksibilitas dan penghematan biaya yang ditawarkan.
Akibatnya, pasar komputasi awan global akan bernilai hingga $250 miliar (terbuka di tab baru) tahun ini, sebagian besar akan jatuh ke kantong hyperscaler seperti Amazon Web Services, Microsoft Azure, dan Google Cloud.
Namun, berbagai tanda menunjukkan gelombang mulai bergeser ke arah yang berbeda, dengan proporsi komputasi yang lebih besar terjadi di luar pusat data terpusat sekali lagi.
Menurut Mike Vildibill, VP & GM Cloud Edge AI di perusahaan semikonduktor Qualcomm, kebangkitan kecerdasan buatan (AI) akan digabungkan dengan sejumlah faktor lain untuk mendorong komputasi kembali ke tepi jaringan, di mana latensi sama pentingnya. sebagai kinerja mentah.
“Tren mega berikutnya sedang berlangsung,” katanya kepada TechRadar Pro. “Sebelumnya, kami melihat banyak komputasi berpindah ke cloud, tetapi efek yo-yo menciptakan kebutuhan komputasi lebih dekat ke edge, tempat data dan konsumen data berada.”
“Masih ada kebutuhan untuk cloud terpusat, tetapi bahkan para hyperscaler menyadari bahwa cloud akan segera tiba. Alih-alih berada di beberapa pusat data yang jauh, mungkin ada di bagasi mobil Anda, di persimpangan, atau dibaut ke sisi bangunan. Itulah masa depan.”
Arah baru
Meskipun Qualcomm mengukir namanya di ruang komputasi seluler dengan jajaran chip Snapdragon-nya, yang terus bersaing di puncak pasar, perusahaan baru-baru ini meluncurkan lini bisnis baru yang dengan cepat mendapatkan momentum.
Fokusnya adalah membangun chip server berkinerja tinggi yang dirancang khusus untuk mempercepat inferensi AI, baik di cloud maupun edge. Diproduksi dengan proses 7nm, akselerator Cloud AI 100 terbaru perusahaan memimpin pasar (terbuka di tab baru) baik dalam kepadatan kinerja dan efisiensi energi, per tolok ukur MLPerf.
Misalnya, Cloud AI 100 Edge Development Kit (AEDK) Qualcomm ditemukan mencapai 240 inferensi per detik per watt (inf/detik/watt) untuk ResNet-50, jaringan neural yang biasa digunakan untuk mengukur performa inferensi. Sebagai perbandingan, AGX Xavier dari Nvidia mengelola 60 inf/detik/watt, empat kali lebih sedikit.
Sementara perusahaan bekerja dengan pelanggan untuk mempercepat inferensi dalam pengaturan pusat data dengan platform Cloud AI 100, Vildibill sangat antusias dengan peluang baru di edge.
Kasus penggunaan “poster-child” untuk komputasi tepi, jelasnya, adalah mengemudi otonom, di mana mobil melakukan inferensi pada data yang diambil dari berbagai kamera dan sensor untuk merencanakan rute tanpa masukan dari pengemudi.
Jika penghalang tiba-tiba muncul di jalan (katakanlah, seorang anak berjalan keluar dari belakang mobil yang diparkir), koreksi jalur perlu dihitung hampir secara instan, sedemikian rupa sehingga hanya komputasi tepi yang memungkinkan.
“Hukum fisika menyatakan bahwa data tidak dapat bergerak cukup cepat antara mobil dan pusat data awan dan kembali lagi dalam waktu yang cukup untuk menghindari bencana,” kata Vildibill. “Anda perlu melakukan pemrosesan lebih dekat ke tempat data berada.”
Dan ini hanyalah salah satu dari banyak contoh; Qualcomm mengatakan pelanggannya menemukan berbagai kasus penggunaan baru untuk inferensi di edge, mulai dari memantau stok rak di lingkungan toko ritel hingga memeriksa pekerja pabrik mengenakan alat pelindung yang diperlukan. Setara dengan 5G (terbuka di tab baru)edge computing juga memungkinkan generasi baru augmented and realitas maya (terbuka di tab baru) (AR/VR) aplikasi yang seharusnya tidak layak.
Penekanan baru pada akselerator AI berarti Qualcomm telah menemukan dirinya berurusan dengan kelas pelanggan baru, yang tidak hanya mencakup hyperscaler tetapi juga organisasi mana pun yang tertarik untuk menerapkan AI di edge. Dan strategi ini tampaknya membuahkan hasil.
Menurut perusahaan angka pendapatan terbaru (terbuka di tab baru), segmen IoT (yang menaungi platform Cloud AI 100) menghasilkan $5,1 miliar pada tahun fiskal 2021, naik 67% dari tahun sebelumnya. Dan Vildibill memberi tahu kami bahwa upaya Qualcomm di ruang chip server hanya akan “terus meningkat”.
Performa, tetapi tidak dengan biaya berapa pun
Namun, bukan hanya pergeseran ke tepi yang diminati Qualcomm. Ini adalah persimpangan dari tren baru ini dan tren lainnya: dorongan menuju komputasi yang berkelanjutan. Dengan banyaknya perusahaan yang kini berkomitmen pada ikrar karbon yang lebih ambisius, kemampuan untuk menjalankan beban kerja secara berkelanjutan telah menjadi prioritas utama.
“Elemen yang sangat penting dari teka-teki ini adalah tidak menghitung dengan biaya berapa pun; Anda harus dapat melakukan pemrosesan ini secara efisien, dengan cara yang berkelanjutan,” jelas Vildibill.
“Apa yang Qualcomm coba lakukan adalah mendorong cara pemrosesan yang lebih efektif, bertenaga, dan hemat daya di edge, yang tidak hanya akan menghemat tagihan energi, tetapi juga jejak karbon.”
Saat Qualcomm terus mengeksplorasi peluang di pasar chip server, perusahaan tersebut bertujuan untuk mengembangkan peta jalan produk yang luas dengan efisiensi daya di hati mereka, kata Vildibill. Dan perusahaan juga akan terus meningkatkan perangkat lunaknya, dalam upaya untuk mendapatkan efisiensi energi yang lebih besar dari lini produk Cloud AI 100 saat ini.
Jika Qualcomm dapat menggeser Nvidia, pemimpin bersejarah dalam akselerasi AI, dengan fokus memaksimalkan kinerja per watt, peluang ekonomi bisa sangat besar. Dan meskipun perusahaan relatif tidak berpengalaman di bidang tersebut, Vildibill yakin dengan prospeknya.
“Peningkatan fokus pada keberlanjutan, ledakan AI, dan pergeseran menuju edge computing telah bersatu untuk menciptakan badai yang sempurna. Dan kami percaya kami berada dalam posisi yang sempurna, pada waktu yang tepat, untuk menghadapi pasar,” katanya.
Lihat juga daftar kami tentang hosting logam telanjang terbaik (terbuka di tab baru), hosting server khusus terbaik (terbuka di tab baru) penyedia dan penyedia VPS terbaik (terbuka di tab baru).