0
News
    Home AI Berita Featured Kecerdasan Buatan MIT Spesial

    Peneliti MIT Temukan Cara Gandakan Kecepatan Pelatihan AI - Viva

    4 min read

     

    Peneliti MIT Temukan Cara Gandakan Kecepatan Pelatihan AI

    Coba Fitur Samsung Galaxy S26 di HP Lama? Begini Caranya!
    • Peneliti MIT dan Nvidia menemukan teknik TLT untuk memangkas waktu pelatihan AI secara drastis.
    • Inovasi ini memanfaatkan waktu idle pada GPU yang selama ini terbuang saat proses sinkronisasi data.
    • Hasil eksperimen menunjukkan peningkatan kecepatan pelatihan antara 70% hingga 210% tanpa menurunkan akurasi model.

    Samsung Galaxy S26 vs iPhone 17: Siapa Raja Flagship 2026?

    Biaya pelatihan model bahasa besar (LLM) kini sangat mahal dan menguras sumber daya energi yang masif. Peneliti dari MIT bersama Nvidia baru saja menemukan solusi praktis untuk mengoptimalkan kecepatan pelatihan AI dengan memanfaatkan waktu tunggu GPU. Teknik baru ini mampu memangkas waktu eksekusi hampir setengahnya dengan cara yang sangat efisien.

    Terobosan ini berfokus pada fase "rollout" dalam reinforcement learning (RL). Pada tahap ini, model menghasilkan berbagai kandidat respons untuk mempelajari perilaku yang lebih baik. Namun, proses ini seringkali menjadi penghambat utama karena menghabiskan hingga 85% dari total waktu eksekusi.

    Review Iniu 5,000mAh Power Bank: Solusi Cas Apple Watch

    Masalah "Long Tail" pada Performa GPU

    Masalah utama dalam pelatihan model canggih terletak pada distribusi panjang respons yang tidak merata atau long-tail distribution. Sebagian besar respons selesai dengan cepat, namun beberapa respons membutuhkan waktu jauh lebih lama. Kondisi ini memaksa GPU yang bekerja cepat untuk berhenti dan menunggu GPU yang lebih lambat agar tetap sinkron.

    Waktu menganggur atau idle time inilah yang menjadi sasaran tim peneliti MIT. Mereka memperkenalkan metode bernama Taming the Long Tail (TLT). Alih-alih membiarkan unit pemrosesan terdiam, TLT menggunakan sumber daya tersebut untuk melatih model "draft" ringan secara langsung di tengah proses pelatihan berlangsung.

    Inovasi Speculative Decoding yang Dinamis

    Teknik TLT ini mengandalkan konsep speculative decoding. Dalam metode tradisional, model kecil (draft) memprediksi token lebih awal agar model utama dapat memverifikasi beberapa token sekaligus secara paralel. Namun, model draft statis biasanya cepat usang saat model utama terus berevolusi selama proses RL.

    TLT mengubah dinamika tersebut dengan melatih ulang model draft secara oportunistik menggunakan sumber daya yang menganggur. Hal ini memastikan model draft selalu selaras dengan model utama tanpa memerlukan biaya komputasi tambahan. Sistem ini secara cerdas mengubah waktu tunggu yang sia-sia menjadi sesi pelatihan produktif bagi model pendukung.

    Dampak Efisiensi Komputasi Masa Depan

    Hasil eksperimen pada berbagai LLM berbasis penalaran menunjukkan lonjakan performa yang luar biasa. Para peneliti melaporkan percepatan pelatihan ujung-ke-ujung (end-to-end) mulai dari 70% hingga 210%. Artinya, dalam banyak skenario, kecepatan pelatihan AI meningkat hingga dua kali lipat lebih cepat dengan tingkat akurasi yang tetap terjaga.

    Pencapaian ini menandai pergeseran fokus riset AI dari sekadar menambah jumlah perangkat keras menuju optimalisasi cerdas. Jika teknik TLT diterapkan pada skala industri yang lebih luas, biaya finansial dan dampak lingkungan dari pengembangan AI generasi terbaru dapat ditekan secara signifikan. Inovasi ini membuktikan bahwa efisiensi perangkat lunak seringkali lebih berdampak daripada sekadar menambah daya komputasi secara brutal.


    Komentar
    Additional JS