Google Kubernetes Engine Dorong Inovasi AI di Era Modern - medcom - Opsitek

Informasi Teknologi Pilihanku

demo-image

Post Top Ad

demo-image

Google Kubernetes Engine Dorong Inovasi AI di Era Modern - medcom

Share This
Responsive Ads Here

 

Google Kubernetes Engine Dorong Inovasi AI di Era Modern

Jakarta: Era kecerdasan buatan semakin nyata dengan proyeksi pasar infrastruktur AI global yang diperkirakan akan mencapai lebih dari USD200 miliar pada tahun 2028. Dengan semakin kompleksnya beban kerja dalam pengolahan data besar, model-model AI yang rumit, serta iterasi yang terus menerus, perusahaan kini dituntut untuk berkembang.

Tim-tim engineering yang telah berinvestasi dalam Kubernetes kini menemukan bahwa keahlian mereka tidak hanya relevan, tetapi juga merupakan “kekuatan super” untuk menaklukkan tantangan era AI. Dalam ajang Next' 25, Google Cloud meluncurkan rangkaian pembaruan penting untuk Google Kubernetes Engine (GKE) dalam acara Google Cloud Next yang menghadirkan solusi revolusioner untuk mendukung beban kerja AI.

Salah satu inovasi utama adalah Cluster Director for GKE. Kini tersedia untuk umum, alat ini memungkinkan pengguna untuk menyebarkan dan mengelola cluster besar yang terdiri dari mesin virtual yang telah diakselerasi, lengkap dengan komputasi, penyimpanan, dan jaringan, semua beroperasi sebagai satu unit terpadu.

Dengan Cluster Director for GKE, tim platform dapat menangani pelatihan AI berskala besar dan inferensi model AI yang membutuhkan kolaborasi antar-mesin dengan performa tinggi. Melalui penggunaan API standar Kubernetes, pengguna tidak harus belajar platform baru, namun cukup memanfaatkan ekosistem yang telah mereka kenal untuk penjadwalan pod, penggantian node yang mengalami gangguan, serta pemeliharaan host.

Fitur-fitur seperti penjadwalan berdasarkan topologi jaringan dan otomatisasi perbaikan gangguan secara signifikan meningkatkan ketahanan dan efisiensi operasional pada beban kerja terdistribusi.

Selain itu, Google menghadirkan dua alat baru yang difokuskan pada inferensi dalam AI, yaitu GKE Inference Quickstart dan GKE Inference Gateway. GKE Inference Quickstart, yang saat ini berada pada tahap pratinjau publik, dirancang untuk membantu pengguna dalam memilih infrastruktur yang sesuai dengan model AI mereka.

Dengan menyediakan profil benchmark yang telah teruji, pengguna dapat menentukan konfigurasi akselerator GPU/TPU serta sumber daya Kubernetes yang diperlukan guna mencapai target performa tertentu, seperti Time to First Token (TTFT). Di sisi lain, GKE Inference Gateway menyediakan solusi bagi tantangan penyeimbangan beban pada inferensi AI.

Dengan pendekatan load balancing yang cerdas dan mekanisme routing yang disesuaikan dengan karakteristik model, alat ini mampu mengurangi biaya operasional hingga 30%, menurunkan tail latency hingga 60%, dan meningkatkan throughput hingga 40%. Solusi gabungan dari kedua alat tersebut memberikan kemudahan bagi perusahaan dalam menjalankan inferensi AI secara optimal tanpa harus mengorbankan performa maupun efisiensi biaya.

Dalam upaya mengoptimalkan penggunaan cloud serta penghematan biaya, Google juga menghadirkan peningkatan pada GKE Autopilot. Sejak diluncurkan pada tahun 2021, Autopilot telah membantu perusahaan menghindari overprovisioning—situasi, dengan sumber daya dihimpun lebih dari yang digunakan sehingga menimbulkan biaya tambahan yang tidak perlu. Pembaruan terbaru pada Autopilot mencakup perbaikan pada kecepatan penjadwalan pod, reaksi scaling yang lebih cepat, serta pengaturan kapasitas yang tepat secara otomatis.

Pembaruan ini memanfaatkan kapabilitas hardware unik yang hanya tersedia di Google Cloud, sehingga memastikan bahwa kapasitas cluster selalu sesuai dengan beban kerja yang berjalan. Lebih menarik lagi, mulai kuartal ketiga, platform komputasi container-optimized dari Autopilot akan tersedia untuk cluster GKE standar, sehingga pengguna tidak lagi terikat pada konfigurasi cluster khusus demi mendapatkan efisiensi yang sama.

Mengatasi hambatan dalam pemecahan masalah juga menjadi fokus utama dalam inovasi GKE. Dengan hadirnya Gemini Cloud Assist Investigations dalam tahap pratinjau privat, Google memperkenalkan alat berbasis AI yang secara langsung terintegrasi ke dalam konsol GKE. Alat ini memungkinkan tim untuk melakukan diagnosis yang cepat terhadap isu-isu yang muncul, baik itu di level pod, cluster, node, serta layanan lainnya seperti load balancer dan IAM.

Dengan otomatisasi pengumpulan observasi dari log dan error, Gemini Cloud Assist Investigations mampu mengidentifikasi akar masalah secara efisien, sehingga waktu yang dibutuhkan untuk memperbaiki gangguan dapat diminimalkan. Inovasi ini sangat vital agar tim dapat kembali fokus pada inovasi produk dan pengembangan aplikasi tanpa terjebak dalam rutinitas troubleshooting yang memakan waktu.

Lebih jauh lagi, Google bekerja sama dengan Anyscale dalam menghadirkan RayTurbo on GKE yang akan diluncurkan pada akhir tahun ini. RayTurbo merupakan versi teroptimasi dari framework open-source Ray, yang biasanya digunakan oleh para data scientist dan engineer untuk mengembangkan aplikasi AI serta machine learning secara elastis.

Dengan kemampuan pemrosesan data hingga 4,5 kali lebih cepat dan penggunaan node yang lebih efisien (dengan pengurangan hingga 50%), RayTurbo on GKE menjanjikan skalabilitas yang sangat tinggi serta startup cluster yang lebih cepat. Inovasi ini dirancang untuk menjembatani kesenjangan pengetahuan bagi para engineer yang mungkin belum terbiasa dengan complexitas Kubernetes, sehingga mereka dapat lebih mudah mengembangkan dan menskalakan aplikasi AI dari laptop ke cluster berskala besar.

Ekosistem inovasi yang dibangun melalui GKE tidak berdiri sendiri. Google juga menekankan bahwa GKE adalah bagian dari ekosistem AI yang lebih luas yang melibatkan kerjasama dengan raksasa teknologi seperti IBM, Meta, NVIDIA, dan Spotify serta komunitas open-source melalui Cloud Native Computing Foundation. Inovasi bersama seperti Dynamic Resource Allocation, Kueue, JobSet, dan LeaderWorkerSet merupakan contoh nyata bagaimana kolaborasi antar perusahaan dan komunitas dapat menghasilkan solusi yang mengoptimalkan alokasi hardware, penjadwalan, dan manajemen job untuk pelatihan serta inferensi model AI.

Selain itu, bagi organisasi yang mencari platform machine learning terintegrasi, Google menyarankan penggunaan Vertex AI yang menyediakan rangkaian alat pengembangan, seperti Vertex AI Studio dan Model Garden, yang dapat dipanggil langsung melalui GKE.

Secara keseluruhan, rangkaian pembaruan dan inovasi yang diperkenalkan oleh Google ini membuktikan bahwa pengalaman dalam mengelola container melalui Kubernetes menjadi fondasi yang kokoh untuk menaklukkan tantangan AI masa kini. Google Kubernetes Engine bukan hanya melanjutkan perannya sebagai platform unggulan untuk aplikasi cloud-native, tetapi juga semakin menegaskan posisinya sebagai pionir dalam mendukung beban kerja AI yang semakin kompleks.

Dengan penyempurnaan teknologi dan kolaborasi ekosistem, perusahaan dapat memanfaatkan keahlian yang telah mereka miliki untuk membuka potensi luar biasa di bidang kecerdasan buatan dan mengantarkan inovasi-inovasi masa depan.

Cek Berita dan Artikel yang lain di Google News


dan follow Channel WhatsApp Medcom.id

(MMI)

Comment Using!!

Tidak ada komentar:

Posting Komentar

Post Bottom Ad

Pages