Berbagai generative AI tools seperti ChatGPT, Bard dan Bing search telah mengubah bagaimana cara perusahaan berinteraksi dengan customer, memproduksi hasil dan menjalankan tugas lainnya. Namun, penggunaan dari produk-produk ini juga meningkatkan kekhawatiran mengenai keamanan data dan perlindungan data. Pada artikel ini, kita akan mengupas mengenai resiko dari penggunaan generative AI tools dari pihak ketiga dan memberikan beberapa saran untuk memastikan bahwa perusahaan Anda menggunakan tools ini dengan aman dan bertanggungjawab.

Generative AI dan data security

Salah satu resiko utama yang dikaitkan dengan penggunaan generative AI tools adalah kemungkinan adanya pelanggaran atau kebocoran data. Karena tools ini didesain untuk dapat menghasilkan hasil secara otomatis, tools ini seringkali mengumpulkan dan menyimpan jumlah data yang besar. Hal ini yang menjadi alasan utama mengapa banyak institusi keuangan seperti JP Morgan Chase dan Deutsceh Bank hanya memberikan penggunaan terbatas bahkan melarang penggunaan ChatGPT di tempat kerja.

Resiko yang ada dalam penggunaan generative AI tools pihak ketiga ini tidak terlalu terlihat jelas bagi banyak orang. Karena ChatGPT memiliki tool yang bergantung pada kemampuan machine learning, interaksi apapun dengan bot ini akan digunakan sebagai data training yang akan digunakan untuk penggunaan selanjutnya. Hal ini berarti semua informasi yang telah dibagikan melalui chat akan disimpan pada server – termasuk data yang mungkin sensitive, personally identifiable information (PII). Karena data ini berada di luar perangkat dari si pengguna, maka apabila ada kebocoran data maka akan sulit untuk diambil kembali dan dihapus.

Kekuatan dari generative AI sangat mengesankan, karena itu banyak orang telah menggunakannya dan mengintegrasikannya ke dalam keseharian mereka, seperti menulis e-mail atau coding. Hal tersebut yang menjadi penyebab kekhawatiran dari Samsung, yang juga telah melarang penggunaan generative AI tools dalam lingkungan pekerjaan. Hal ini terjadi setelah beberapa developer meng up load source code ke dalam ChatGPT, dan berpotensi membagikan informasi sensitive terkait hak cipta pada pihak ketiga.

Menggunakan Generative AI Secara Bertanggungjawab

Resiko yang menyertai penggunaan generative AI sangat bergantung pada bagaimana kita menggunakannya. Karena tools ini membantu meningkatkan efisiensi kita, sangat mudah untuk menggunakannya tanpa batasan. Namun, ketika kita menyadari bagaimana teknologi bekerja, kita akan mulai memiliki rasa khawatir mengenai perlindungan data. Berikut ini adalah beberapa langkah untuk menghindari kebocoran data ketika menggunakan generative AI tools –

  1. Batasi data yang Anda bagikan : hanya bagikan data yang diperlukan untuk tool tersebut berfungsi, dan pastikan bahwa semua data yang sensitive dibuat anonym, dibuat (seperti menggunakan persentasi atau menggunakan a factor of 10), atau tidak dibagikan sama sekali.
  2. Edukasi karyawan Anda : pastikan semua karyawan yang menggunakan tool ini sudah mendapatkan training mengenai perlindungan data dan privasi. Bantu mereka untuk memahami resikonya sehingga mereka dapat terhindar dari membagikan informasi sensitive seperti hak cipta atau informasi hal milik (proprietary information).
  3. Simpan data sendiri dengan menggunakan Local Large Language Mode (LLM) : daripada mengirimkan data kepada pihak ketiga, Anda dapat menggunakan solusi AI yang mengandalkan local language models. Hal ini memerlukan pengembangan LLM yang unik untuk perusahaan Anda, yang dilakukan oleh penyedia solusi AI.

Manfaat Penggunaan local large language model (LLM)

Pilihan ketiga untuk memastikan keamanan dan proteksi data perusahaan adalah cara yang dilakukan oleh Bloomberg, perusahaan jasa keuangan. Bloomberg mengembangkan language modelnya sendiri yang dikenal dengan BloombergGPT, yang dibuat secara khusus untuk memenuhi kebutuhan dari industry keuangan. Bloomberg membuat LLM dengan 50 milyar parameter terdiri dari berbagai data dan informasi spesifik mengenai keuangan. Tim AI Bloomberg memutuskan untuk memanfaatkan kekayaan data yang telah dikumpulkan selama 40 tahun, dan membuatnya menjadi data dasar untuk solusi generative AI buatan mereka sendiri.

BloombergGPT merupakan contoh yang baik dari domain specific LLM yang dapat melebihi general purpose LLM dalam bidang yang lebih spesifik – yang dalam kasus ini, pasar keuangan. Dan meskipun Bloomberg mungkin belum memutuskan untuk mengembangkan GPT atau LLM nya dikarenakan alasan keamanan, dengan memilikinya dapat memastikan bahwa karyawannya tidak akan secara tidak sengaja membagikan data sensitive keluar dari perusahaan. BloombergGPT siap untuk membantu karyawannya dengan menyediakan laporan yang akurat dan juga untuk memproses jumlah data yang besar yang masuk melalui Bloomberg Terminal.

Generative AI tools menawarkan keuntungan yang luar biasa bagi perusahaan yang ingin otomisasi tugas pekerjaan dan menghasilkan hasil dengan cepat dan efisien. Namun, penting untuk diketahui bahwa tools ini juga memiliki resiko mengenai keamanan data dan perlindungan data. Memiliki domain specific LLM sendiri tidak hanya akan membantu dalam mengurangi kebocoran data namun juga memberikan karyawan keuntungan dari penggunaan generative AI.

Ingin melihat bagaimana memiliki model bahasa khusus untuk bisnis atau domain Anda dapat memberikan manfaat bagi bisnis Anda? Hubungi salah satu spesialis kami hari ini.


Jelajahi LLMs