AI bukan hanya membantu kita, tetapi ini pun juga menimbulkan kontroversi. Penggunaan AI memang sangat bermanfaat dalam berbagai bidang, seperti perubatan, pendidikan dan lain-lain. Namun, penggunaan AI juga dapat berisiko besar untuk privasi dan keamanan data.
Pengembangan AI modern bertumpu pada asumsi bahwa makin banyak data yang dikumpulkan dan dipusatkan, maka makin baik performa model yang dihasilkan. Dengan demikian, sistem sentralistik diterapkan di mana semua data dikumpulkan dan disimpan secara terpusat untuk melatih AI.
Namun, asumsi ini menyisakan banyak ruang untuk kritik. Salah satu kritikan utama adalah kekhawatiran mengenai privasi. Dengan sistem sentralistik, risiko penyalahgunaan, kebocoran, dan serangan siber semakin meningkat.
Kekhawatiran tersebut telah berdampak langsung pada implementasi AI di dunia nyata. Contohnya adalah National Health Service di Inggris yang menangguhkan sebuah inisiatif AI karena kekhawatiran terkait pengelolaan data pasien. Di Kanada, muncul kekhawatiran mengenai penyimpanan data sensitif sektor publik.
Dalam konteks ini, muncul upaya mengubah cara AI belajar dari data tanpa harus mengandalkan pemusatan dataset dalam skala besar. Salah satu pendekatan yang mulai banyak dibahas adalah federated learning, metode pelatihan AI yang dirancang agar data tidak perlu dipindahkan dari tempat asalnya.
Dalam pendekatan ini, model AI dikirimkan ke lokasi data untuk dilatih secara lokal oleh end user. Yang dikirimkan ke pusat adalah hasil pelatihannya, sementara data pengguna tetap tersimpan di lokasi asli.
Rachmad Andri Atmoko dari Universitas Brawijaya menyebut pendekatan ini layaknya "guru yang datang ke rumah". Data paling relevan untuk melatih banyak model pembelajaran mesin seperti model bahasa dan pengenalan gambar justru berada di perangkat pengguna.
Dalam makalah yang menjadi rujukan utama, para peneliti Google menjelaskan bahwa data paling relevan untuk melatih banyak model pembelajaran mesin justru berada di perangkat pengguna. Data-data itu bersifat sangat pribadi dan jumlahnya jauh lebih besar dibandingkan ukuran modelnya.
Dengan demikian, federated learning dapat tetap menghasilkan model global stabil dan terus membaik meskipun sebagian besar pengguna hanya berkontribusi sedikit.
Pendekatan ini kemudian menarik perhatian dari dunia medis yang punya aturan sangat ketat terkait data serta kerahasiaan pasien. Dalam mengembangkan model AI medis, data yang dibutuhkan tak cuma sangat besar, tetapi juga dilindungi dengan sangat ketat.
Dengan federated learning, pelatihan model dapat melibatkan berbagai rumah sakit secara kolaboratif tanpa memindahkan data pasien. Setiap rumah sakit melatih model menggunakan data lokal, lalu mengirimkan pembaruan parameter untuk digabungkan.
Pendekatan ini telah diuji secara nyata dalam konteks medis berbeda-beda dengan fokus yang jelas pada persoalan fragmentasi data dan kerahasiaan pasien. Dalam kajian yang dipublikasikan di npj Digital Medicine, federated learning digunakan untuk melatih model AI lintas rumah sakit untuk tugas-tugas spesifik tanpa memindahkan data pasien dari institusi asalnya.
Studi tersebut menunjukkan bahwa federated learning mampu menghasilkan performa sebanding dengan pelatihan terpusat.
Pengembangan AI modern bertumpu pada asumsi bahwa makin banyak data yang dikumpulkan dan dipusatkan, maka makin baik performa model yang dihasilkan. Dengan demikian, sistem sentralistik diterapkan di mana semua data dikumpulkan dan disimpan secara terpusat untuk melatih AI.
Namun, asumsi ini menyisakan banyak ruang untuk kritik. Salah satu kritikan utama adalah kekhawatiran mengenai privasi. Dengan sistem sentralistik, risiko penyalahgunaan, kebocoran, dan serangan siber semakin meningkat.
Kekhawatiran tersebut telah berdampak langsung pada implementasi AI di dunia nyata. Contohnya adalah National Health Service di Inggris yang menangguhkan sebuah inisiatif AI karena kekhawatiran terkait pengelolaan data pasien. Di Kanada, muncul kekhawatiran mengenai penyimpanan data sensitif sektor publik.
Dalam konteks ini, muncul upaya mengubah cara AI belajar dari data tanpa harus mengandalkan pemusatan dataset dalam skala besar. Salah satu pendekatan yang mulai banyak dibahas adalah federated learning, metode pelatihan AI yang dirancang agar data tidak perlu dipindahkan dari tempat asalnya.
Dalam pendekatan ini, model AI dikirimkan ke lokasi data untuk dilatih secara lokal oleh end user. Yang dikirimkan ke pusat adalah hasil pelatihannya, sementara data pengguna tetap tersimpan di lokasi asli.
Rachmad Andri Atmoko dari Universitas Brawijaya menyebut pendekatan ini layaknya "guru yang datang ke rumah". Data paling relevan untuk melatih banyak model pembelajaran mesin seperti model bahasa dan pengenalan gambar justru berada di perangkat pengguna.
Dalam makalah yang menjadi rujukan utama, para peneliti Google menjelaskan bahwa data paling relevan untuk melatih banyak model pembelajaran mesin justru berada di perangkat pengguna. Data-data itu bersifat sangat pribadi dan jumlahnya jauh lebih besar dibandingkan ukuran modelnya.
Dengan demikian, federated learning dapat tetap menghasilkan model global stabil dan terus membaik meskipun sebagian besar pengguna hanya berkontribusi sedikit.
Pendekatan ini kemudian menarik perhatian dari dunia medis yang punya aturan sangat ketat terkait data serta kerahasiaan pasien. Dalam mengembangkan model AI medis, data yang dibutuhkan tak cuma sangat besar, tetapi juga dilindungi dengan sangat ketat.
Dengan federated learning, pelatihan model dapat melibatkan berbagai rumah sakit secara kolaboratif tanpa memindahkan data pasien. Setiap rumah sakit melatih model menggunakan data lokal, lalu mengirimkan pembaruan parameter untuk digabungkan.
Pendekatan ini telah diuji secara nyata dalam konteks medis berbeda-beda dengan fokus yang jelas pada persoalan fragmentasi data dan kerahasiaan pasien. Dalam kajian yang dipublikasikan di npj Digital Medicine, federated learning digunakan untuk melatih model AI lintas rumah sakit untuk tugas-tugas spesifik tanpa memindahkan data pasien dari institusi asalnya.
Studi tersebut menunjukkan bahwa federated learning mampu menghasilkan performa sebanding dengan pelatihan terpusat.