Anda menyalin perenggan daripada kontrak sulit ke dalam ChatGPT untuk mendapatkan ringkasan. Anda menampal data pelanggan ke dalam pembantu AI untuk merangka laporan. Berjuta orang melakukan ini setiap hari tanpa memikirkan implikasinya. Tetapi saat anda menekan Enter, data anda memasuki sistem yang anda tidak kawal.
Model kepercayaan di sebalik alat AI
Setiap chatbot AI beroperasi pada model pelanggan-pelayan: input anda meninggalkan peranti, melalui internet, dan diproses pada infrastruktur pembekal. Ini secara asasnya berbeza daripada membuka fail pada komputer anda. Anda menyerahkan data kepada pihak ketiga.
Soalan kritikal bukan sama ada alat AI berguna — memang berguna. Soalannya ialah apa yang berlaku pada data anda selepas AI menjana responsnya.
| Apa yang berlaku | ChatGPT (percuma) | ChatGPT (Enterprise) | Google Gemini | Claude |
|---|---|---|---|---|
| Data dihantar ke pelayan | Ya | Ya | Ya | Ya |
| Digunakan untuk latihan model | Secara lalai, ya | Tidak | Berbeza mengikut pelan | Tidak (secara lalai) |
| Perbualan dilog | Ya | Ya (disulitkan) | Ya | Ya |
| Opt-out tersedia | Ya | T/B | Separa | Ya |
Perbezaan antara "tidak digunakan untuk latihan" dan "tidak disimpan" amat penting. Malah pembekal yang berjanji tidak pernah melatih pada data anda masih merekod perbualan untuk pemantauan penyalahgunaan, penyahpepijatan, dan pematuhan undang-undang. Rekod tersebut mungkin berterusan selama berminggu-minggu atau berbulan-bulan.
Perbezaan utama "Tidak digunakan untuk latihan" tidak bermakna "tidak disimpan." Data anda mungkin masih direkod pada pelayan pembekal untuk pengesanan penyalahgunaan, jaminan kualiti, atau pematuhan undang-undang — walaupun ia tidak pernah dimasukkan ke dalam model.
Mengapa ini lebih penting daripada yang anda sangka
Insiden Samsung pada 2023 adalah amaran. Jurutera menampal kod sumber proprietari dan nota mesyuarat dalaman ke dalam ChatGPT. Kerana latihan data diaktifkan secara lalai, maklumat sulit tersebut berpotensi dimasukkan ke dalam pangkalan pengetahuan model. Samsung bertindak balas dengan melarang chatbot AI di seluruh syarikat.
Ini bukan kes terpencil. Kajian menunjukkan bahawa 11% data yang ditampal ke dalam alat AI adalah sulit, dan 38% perusahaan pernah mengalami bentuk pendedahan data melalui alat AI.
Kategori risiko sudah difahami:
- Data identiti (kad pengenalan, nombor keselamatan sosial) — membolehkan kecurian identiti
- Kelayakan (kata laluan, kunci API, token) — harus dianggap terjejas sebaik ditampal
- Rahsia perniagaan (kod, kewangan, dokumen strategi) — kehilangan kelebihan persaingan
- Data pihak ketiga (maklumat pelanggan, rekod pesakit) — liabiliti undang-undang di bawah GDPR dan HIPAA
- Komunikasi peribadi — melanggar privasi orang lain yang terlibat
GDPR dan dimensi undang-undang
Di Eropah, RGPD/GDPR terpakai untuk sebarang data peribadi yang anda kongsi dengan pembekal AI. Jika anda menampal maklumat peribadi pelanggan ke dalam ChatGPT tanpa asas undang-undang, secara teknikal anda melanggar undang-undang perlindungan data. Itali sementara mengharamkan ChatGPT pada 2023 atas kebimbangan ini. CNIL Perancis dan Akta AI EU kedua-duanya mengenakan obligasi ketelusan tentang cara sistem AI mengendalikan data peribadi.
Untuk perniagaan, taruhannya konkrit: pelanggaran GDPR boleh mengakibatkan denda sehingga 4% daripada hasil tahunan.
Alternatif sisi pelanggan
Terdapat seni bina yang secara asasnya berbeza: pemprosesan sisi pelanggan. Alat yang berjalan sepenuhnya dalam pelayar tidak pernah menghantar data anda ke pelayan. Pengiraan berlaku pada peranti anda sendiri, dan apabila anda menutup tab, data hilang.
| Aspek | Alat AI awan | Alat sisi pelanggan |
|---|---|---|
| Data meninggalkan peranti | Ya | Tidak |
| Pembekal boleh mengakses data | Ya | Tidak |
| Berfungsi luar talian | Tidak | Selalunya ya |
| Risiko pengekalan data | Ya | Tiada |
Perbezaan ini paling penting untuk operasi fail: membersihkan metadata daripada PDF, membuang data EXIF daripada foto, menukar dokumen. Tugasan ini tidak memerlukan AI — ia memerlukan pengiraan — dan tiada sebab untuk memuat naik fail sensitif untuk menyelesaikannya.
Peraturan am Jika tugasan boleh dilakukan dengan pengiraan tempatan (penukaran fail, pembuangan metadata, pemformatan teks), utamakan alat sisi pelanggan. Simpan AI awan untuk tugasan yang benar-benar memerlukan model bahasa — dan nyahnamakan data anda sebelum menghantar.
Pendekatan yang munasabah
Mengelak alat AI sepenuhnya tidak praktikal. Tetapi melayan mereka seperti orang asing yang berpengetahuan adalah bijak: anda akan membincangkan topik umum dengan bebas, tetapi anda tidak akan menyerahkan pasport, kata laluan, atau kewangan syarikat anda.
Prinsip utama:
- Nyahnamakan sebelum menampal — gantikan nama sebenar, nombor, dan pengenal dengan pemegang tempat
- Semak polisi data pembekal — khususnya sama ada latihan diaktifkan secara lalai dan berapa lama log dikekalkan
- Gunakan pelan perusahaan untuk data perniagaan — ia biasanya menawarkan jaminan perlindungan data kontraktual
- Pilih alat sisi pelanggan untuk fail sensitif — tiada muat naik bermakna tiada pendedahan
Kemudahan AI memang nyata. Tetapi begitu juga tanggungjawab untuk memahami ke mana data anda pergi.
Ketahui lebih lanjut
Terokai alat yang memproses fail anda secara tempatan dalam pelayar, tanpa muat naik ke pelayan:
- Bersihkan Metadata PDF — buang maklumat tersembunyi daripada dokumen
- Buang Data EXIF Foto — hapuskan lokasi dan maklumat peranti daripada imej
- Lindungi PDF dengan Kata Laluan — sulitkan dokumen sensitif sebelum berkongsi
