Kontak: rijal028official@gmail.com
Proyek ini memperkenalkan sebuah kerangka kerja konseptual inovatif yang disebut Algoritma Noise Adaptif, sebuah metode untuk melindungi gambar dan video digital dari penggunaan dan manipulasi tanpa izin oleh model AI generatif (seperti untuk deepfake, pembuatan konten oleh AI, atau ekstraksi data pelatihan). Prinsip intinya adalah mencapai perlindungan ini tanpa menurunkan kualitas visual bagi persepsi manusia.
Dengan kemajuan pesat dalam AI generatif (seperti Veo dari Google dan teknologi serupa), kebutuhan untuk melindungi foto pribadi, karya seni, dan data visual yang sensitif menjadi semakin mendesak. Proyek ini bertujuan untuk menyumbangkan pendekatan baru terhadap penggunaan AI yang bertanggung jawab dan perlindungan data.
- Penyematan Noise Cerdas (melalui Jaring Laba-Laba Adaptif): Menyematkan pola noise terstruktur dan dinamis yang dirancang untuk mengganggu proses AI namun tidak dapat dirasakan oleh manusia.
- Tombol Pengenalan AI (Kontrol Pengguna): Pengguna secara konseptual dapat memilih apakah output gambar mereka "Ramah-AI" (untuk penggunaan AI yang bermanfaat) atau "Terlindungi".
- Output Ramah Manusia: Perlindungan ini dirancang agar tidak terlihat, tanpa adanya tanda air (watermark) atau distorsi yang tampak.
- Ketahanan Terhadap Screenshot (Konseptual): Karena noise pelindung disematkan di dalam data piksel, noise ini dimaksudkan agar tetap efektif bahkan jika gambar di-screenshot.
"Algoritma Noise Adaptif" mencapai perlindungannya melalui "Struktur Jaring Laba-Laba Adaptif" yang unik dan tak kasat mata. Ini bukan noise acak, melainkan sebuah jaring berlapis yang dihasilkan secara dinamis, berpusat pada subjek manusia, beradaptasi dengan posisinya, dan dirancang untuk membuat output AI menjadi gagal atau tidak logis.
Untuk penjelasan yang lebih mendalam mengenai mekanisme, arsitektur, dan riset di balik konsep ini, silakan lihat dokumen berikut:
- Bab 1: Detail Mekanisme Pertahanan
- Bab 2: Konsep Aplikasi Verifikasi
- Bab 3: Jurnal Riset & Pengembangan
Proyek ini beserta konsep-konsepnya dipublikasikan secara terbuka di GitHub oleh Rijal Saepuloh per Juni 2025. Tujuan utama dari publikasi ini adalah untuk menetapkan prior art (bukti konsep yang sudah ada lebih dulu) dan untuk berbagi ide dengan komunitas yang lebih luas. Hal ini dilakukan dengan niat untuk mendorong diskusi, penelitian lebih lanjut, dan potensi pengembangan menuju AI yang bertanggung jawab.
Proyek ini merupakan kontribusi dari seorang pemikir independen dengan sumber daya terbatas. Jika Anda adalah seorang peneliti, developer, ahli etika, pembuat kebijakan, atau organisasi yang tertarik untuk berdiskusi atau berkolaborasi dalam mengembangkan konsep ini, silakan hubungi:
Penggagas: Rijal Saepuloh
Email: rijal028official@gmail.com