Mengenal Shadow AI Microsoft: Risiko dan Contoh Penggunaannya

Media Indonesia
24/4/2026 18:43
Mengenal Shadow AI Microsoft: Risiko dan Contoh Penggunaannya
Ilustrasi.(Freepik)

PENGGUNAAN kecerdasan buatan (AI) di lingkungan kerja berkembang jauh lebih cepat daripada kebijakan resmi perusahaan. Fenomena ini melahirkan fenomena yang disebut sebagai Shadow AI. Bagi organisasi yang menggunakan ekosistem Microsoft, tantangan ini menjadi krusial karena kemudahan akses alat AI generatif yang sering kali digunakan tanpa pengawasan departemen IT.

Apa Itu Shadow AI?

Shadow AI adalah penggunaan aplikasi, alat, atau layanan kecerdasan buatan oleh karyawan di dalam organisasi tanpa persetujuan, pengetahuan, atau pengawasan resmi dari departemen IT. Ini merupakan turunan dari konsep Shadow IT, tetapi dengan risiko yang lebih spesifik terkait privasi data dan keamanan model bahasa besar (LLM).

Dalam konteks Microsoft, Shadow AI sering terjadi ketika karyawan menggunakan akun pribadi untuk mengakses layanan seperti ChatGPT atau menggunakan fitur AI eksperimental yang belum divalidasi oleh tim keamanan siber perusahaan untuk mengolah data sensitif korporat.

Contoh Penggunaan Shadow AI

Shadow AI muncul karena karyawan ingin meningkatkan produktivitas secara instan. Berikut beberapa skenario umum penggunaannya:

  • Penyusunan Laporan Keuangan: Karyawan memasukkan data mentah laporan keuangan perusahaan ke dalam AI publik (seperti ChatGPT versi gratis) untuk membuat ringkasan eksekutif.
  • Debugging Kode Pemrograman: Developer menggunakan asisten AI pihak ketiga yang tidak terdaftar dalam lisensi perusahaan untuk memperbaiki bug pada kode sumber (source code) milik perusahaan.
  • Pembuatan Konten Pemasaran: Tim kreatif menggunakan alat generator gambar AI eksternal untuk kampanye merek tanpa memastikan hak cipta atau keamanan data aset yang diunggah.
  • Transkripsi Rapat: Menggunakan ekstensi browser AI pihak ketiga untuk merekam dan merangkum rapat di Microsoft Teams tanpa izin admin IT.

Risiko Shadow AI bagi Perusahaan

Aspek Risiko Dampak
Kebocoran Data Data sensitif yang dimasukkan ke AI publik dapat digunakan untuk melatih model mereka, sehingga berpotensi muncul di hasil pencarian pengguna lain.
Kepatuhan (Compliance) Pelanggaran regulasi perlindungan data seperti GDPR atau UU PDP karena data diproses di server yang tidak terverifikasi.
Halusinasi AI Keputusan bisnis diambil berdasarkan data yang tidak akurat atau halusinasi dari model AI yang tidak dikalibrasi untuk kebutuhan bisnis.

Solusi Microsoft terhadap Shadow AI

Microsoft menyarankan organisasi untuk beralih dari penggunaan AI tidak resmi ke solusi yang terkelola. Beberapa langkah mitigasi meliputi:

  1. Implementasi Microsoft Copilot: Mengarahkan karyawan menggunakan Copilot dengan perlindungan data komersial (Enterprise), di mana data tidak akan digunakan untuk melatih model publik.
  2. Microsoft Purview: Menggunakan alat ini untuk mendeteksi penggunaan aplikasi AI pihak ketiga dan memantau bagaimana data sensitif dibagikan ke layanan AI.
  3. Edukasi Karyawan: Memberikan panduan mengenai alat AI mana yang aman digunakan dan prosedur resmi untuk mengajukan penggunaan teknologi baru.
Catatan Redaksi: Shadow AI tidak selalu berarti niat buruk karyawan, melainkan indikasi adanya kebutuhan produktivitas yang belum terpenuhi oleh infrastruktur IT resmi. Perusahaan disarankan untuk bersikap adaptif daripada sekadar melarang.

 



Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Berita Lainnya