0
News
    Home AI Berita Copilot Featured Kecerdasan Buatan Microsoft Spesial

    Microsoft: Copilot AI Hanya untuk Hiburan, Jangan untuk Hal Penting - Kompas

    5 min read

     

    Microsoft: Copilot AI Hanya untuk Hiburan, Jangan untuk Hal Penting


    KOMPAS.com – Microsoft menuai sorotan setelah ketentuan penggunaan (terms of use) layanan kecerdasan buatan (AI) Copilot menyebut bahwa layanan tersebut hanya ditujukan untuk “hiburan”, dan tidak boleh diandalkan untuk keperluan penting.

    Dalam dokumen tersebut, Microsoft secara eksplisit memperingatkan bahwa Copilot dapat menghasilkan kesalahan atau tidak bekerja sebagaimana mestinya.

    Karena itu, pengguna diminta untuk tidak menggunakan AI tersebut sebagai sumber utama dalam mengambil keputusan penting, dan menggunakan layanan tersebut dengan risiko sendiri.

    Baca juga: Microsoft Mulai Sebar AI Copilot Cowork, Bisa Kerjakan Tugas Tanpa Disuruh

    Pernyataan ini dinilai kontras dengan strategi Microsoft yang selama ini gencar mendorong penggunaan Copilot di berbagai produk, mulai dari Windows 11 hingga layanan bisnis dan produktivitas.

    Bahkan, Copilot diposisikan sebagai asisten AI untuk membantu pekerjaan sehari-hari pengguna.

    Pertanyakan Microsoft

    Sorotan terhadap klausul ini semakin menguat setelah ramai diperbincangkan di media sosial.

    Banyak pihak mempertanyakan kepercayaan Microsoft terhadap teknologi yang mereka kembangkan sendiri, mengingat perusahaan tersebut terus mempromosikan Copilot sebagai solusi berbasis AI untuk produktivitas dan efisiensi kerja.

    Menanggapi hal tersebut, Microsoft menyebut bahwa frasa “untuk tujuan hiburan” merupakan “bahasa lama” (legacy language) dari saat Copilot masih berfungsi sebagai pendamping mesin pencarian Bing.

    Perusahaan menyatakan bahwa ketentuan tersebut akan diperbarui karena tidak lagi mencerminkan penggunaan Copilot saat ini. Di sisi lain, peringatan semacam ini sebenarnya bukan hal baru di industri AI.

    Baca juga: Ikuti ChatGPT dan Anthropic, Microsoft Rilis AI Kesehatan Copilot Health

    Sejumlah perusahaan teknologi juga mencantumkan disclaimer serupa untuk membatasi tanggung jawab hukum, mengingat model AI generatif masih berpotensi menghasilkan informasi yang keliru (hallucination) atau tidak akurat.

    Kasus ini juga menyoroti fenomena “automation bias”, yaitu kecenderungan pengguna untuk terlalu percaya pada hasil yang diberikan mesin.

    Padahal, para ahli mengingatkan bahwa output AI seharusnya tetap diverifikasi secara mandiri sebelum digunakan, terutama dalam konteks pekerjaan atau keputusan penting.

    Meski Copilot dan teknologi AI lainnya semakin terintegrasi dalam kehidupan sehari-hari, pengguna tetap diimbau untuk bersikap kritis dan tidak sepenuhnya bergantung pada hasil yang diberikan sistem tersebut, dilansir KompasTekno dari Toms Hardware.

    KOMPAS.com berkomitmen memberikan fakta jernih, tepercaya, dan berimbang. Dukung keberlanjutan jurnalisme jernih dan nikmati kenyamanan baca tanpa iklan melalui Membership. Gabung KOMPAS.com Plus sekarang


    Komentar
    Additional JS