Feature news

Tampilkan postingan dengan label deepfake. Tampilkan semua postingan

Facebook Bisa Telusuri Sumber Video Deepfake

Deepfake memang belum menjadi masalah besar di Facebook, tapi mereka terus mencari cara untuk menghadapi teknologi ini.

Dalam risetnya bersama akademisi dari Michigan State University (MSU), Facebook menemukan cara untuk melakukan reverse engineering terhadap deepfake. 

Yaitu dengan menganalisa gambar buatan AI tersebut.

Analisa tersebut dilakukan terhadap karakteristik model machine learning yang dipakai untuk membuat video deepfake. 

Dari situ, Facebook bisa membantu menelusuri sumber yang menyebarkan deepfake-nya di berbagai media sosial.

Kenapa ini penting? Karena deepfake seringkali berisikan hoax dan juga video porno palsu. 

Namun sayangnya, metode yang dikembangkan Facebook ini masih berada dalam tahap awal dan belum siap untuk dipakai ke publik, demikian dikutip dari The Verge.


Dalam penelitian sebelumnya terhadap deepfake, model AI yang dipakai untuk membuat deepfake ini memang sudah bisa dideteksi. 

Namun dalam penelitian MSU yang dipimpin oleh Vishal Asnani ini teknologi tersebut diteruskan dengan kemampuan mengidentifikasi 'gaya' yang belum dikenal sebelum sebelumnya.

'Gaya' ini dikenal sebagai hyperparameter, yang harus diatur ulang untuk setiap model machine learning, layaknya sebuah mesin. 

Namun pada akhirnya mereka meninggalkan sebuah 'sidik jari' unik dalam gambar yang dihasilkan membuat deepfake. 

Sidik jari inilah yang kemudian bisa dipakai untuk mengidentifikasi sumber deepfake-nya.

Hyperparameter ini adalah hal yang sangat penting menurut kepala penelitian dari Facebook yang bernama Tal Hassner. 

Pasalnya menurutnya software deepfake sangat mudah dikustomisasi, yang membuat pelaku bisa dengan mudah menutupi jejak digitalnya saat ditelusuri oleh pihak berwajib.

"Katakanlah seorang penjahat membuat banyak deepfake yang berbeda dan mengunggahnya di platform berbeda untuk pengguna yang berbeda. 

Jika ini adalah model AI yang berlum pernah dipakai sebelumnya, maka tak banyak yang bisa kita lakukan. 

Namun kini kita bisa melihat dan mengenali kalau semua gambar itu berasal dari model yang sama," ujar Hassner.

Learn more »

Kacau! Ibu Pakai Deepfake untuk Tendang Saingan Putrinya

Kekhawatiran akan penyalahgunaan deepfake mulai tampak nyata. 

Seorang ibu di Pennsylvania, AS, memanfaatkan teknologi ini untuk menyingkirkan saingan putrinya di kelompok cheerleader sekolah.

Deepfake adalah video rekayasa atau materi digital yang dibuat oleh artifial intelligence (AI) atau kecerdasan buatan yang canggih hingga menghasilkan gambar dan suara yang terlihat dan terdengar seperti asli.


Teknik inilah yang diduga dilakukan Raffaela Spone, dalam upaya untuk menendang saingan putrinya dari kelompok cheerleader. 

Menurut penegak hukum yang menyelidiki kasus ini, Spone mengirim foto dan video remaja yang sudah diubah menggunakan AI kepada pelatih cheerleader untuk memfitnah korban.

Dalam video tersebut, korban digambarkan sebagai gadis nakal dengan minum minuman beralkohol, merokok, dan bugil. 

Spone berharap pelatih mendepak korban dari keanggotaan cheerleader sehingga putrinya bisa melenggang tanpa saingan.

Dikutip dari CBS, polisi pertama kali menerima kabar tersebut pada Juli lalu, ketika salah satu korban menerima pesan dari nomor tak dikenal. Pesan ini menggerakkan korban lain mengungkapkan cerita serupa.

Petugas kepolisian kemudian menelusurinya hingga menemukan nomor yang terkait dengan situs yang berorientasi pada telemarketer. 

Dari sini, pelacakan mengarahkan ke alamat IP yang digunakan di rumah Spone. Penelusuran di smartphone wanita itu menemukan bukti yang mengaitkannya dengan dengan website tersebut.

Karena perbuatannya, Spone menghadapi tuduhan pelecehan di dunia maya terhadap seorang anak dan sejumlah pelanggaran terkait lainnya. 

Polisi belum mengambil tindakan terhadap putrinya, karena tidak ada bukti bahwa dia mengetahui tindakan ibunya.

Hingga saat ini, jejaring sosial seperti Facebook, TikTok, dan Twitter telah melarang penggunaan deepfake, sehingga kemungkinan penyebarannya kecil. 

Namun, insiden ini menggarisbawahi adanya kemudahan dalam pemalsuan citra seseorang.


Tak perlu keahlian khusus, deepfake bisa dengan mudah digunakan siapa saja. 

Meski beberapa hasil rekayasa deepfake ada yang masih terlihat palsu, ke depannnya dikhawatirkan teknologi ini kian canggih dan bisa membuat rekayasa video yang tampak natural sehingga bisa lebih membahayakan.

Learn more »

Teknologi Deepfake Seru Sih, Tapi Bisa Jadi Ancaman Hoax

Belakangan ini ramai teknologi deepfake membuat sebuah foto seolah hidup kembali. Tapi, bila dijadikan sebuah video, teknologi bisa mengundang persoalan yang berujung hoax.

"Ancaman nyata dari dunia siber ke depan semakin beraneka ragam, misalnya yang sudah sering dibahas dan menjadi ancaman adalah hoax. 

Namun kini, ancaman hoax ditambah dengan model deepfake yang sungguh berbahaya," ujar pakar keamanan siber Pratama Persadha.

Ia mencontohkan, seperti aplikasi yang sedang viral, yaitu MyHeritage, yang kebanyakan digunakan oleh masyarakat untuk nostalgia dan hiburan semata.

"Yang menjadi pertanyaan ialah jika pemakaian aplikasi tersebut digunakan untuk kepentingan pribadi, jelas masih aman. Namun kalau ada niatan untuk membuat hoax menggunakan deepfake, itu yang berbahaya," tuturnya.

Pratama yang juga Chairman lembaga riset keamanan siber CISSReC (Communication & Information System Security Research Center) mengungkapkan, karena sampai sekarang belum ada teknologi yang bisa mendeteksi video yang dibuat oleh deepfake ini asli atau palsu.

"Deepfake merupakan salah satu hasil dari teknologi AI (Artificial Intelligence / Kecerdasan buatan-red). 

Dengan deep learning, AI mampu menghasilkan pembelajaran yang berujung pada produk video maupun suara palsu," jelasnya.

Pratama mengatakan, salah satu contoh yang paling sering dijadikan contoh adalah video palsu mantan Presiden AS Barack Obama. 

Tak sedikit pula aplikasi gratis untuk membuat video palsu di android, namun hasilnya tidak sehalus deepfake yang dibuat oleh para profesional dan para peretas.

CEO Tesla sekaligus SpaceX Elon Musk juga tak luput dari serangan hoax deepfake yang membuat saham perusahaannya rontok.

"Video serupa juga dapat dibuat berdasarkan tokoh lain yang tidak kita ketahui, yang dapat menyebabkannya masyarakat bertanya-tanya mengenai keasliannya," ucapnya.

"Ancaman deepfake terutama video palsu yang menambah bahaya hoax di tengah masyarakat, hal inilah yang memang harus diwaspadai sejak awal," kata Pratama menambahkan.

Ia mengimbau kepada para pejabat juga jangan memakai aplikasi deepfake seperti faceapp dan semacamnya. 

Karena nantinya data wajah bisa dipakai untuk membuat hoaks dan ini jelas berbahaya.

"Ke depan, dengan semakin tingginya ketergantungan kita pada dunia digital maka akan semakin sulit untuk melindungi privasi kita," pungkasnya.

Learn more »

Deepfake Kembali Makan Korban

Masih ingat dengan deepfake ?

Teknologi yang memungkinkan pembuatnya untuk membuat video, foto, hingga audio palsu dengan dokumen asli.

Kepopuleran teknologi ini meningkat setahun lalu, di mana disangkutpautkan dengan konten porno yang menggiring nama-nama artis terkenal.

Kali ini korban deepfake adalah aktris senior Hollywood, Meryl Streep.

Namun, bukan untuk konten porno melainkan aktris 70 tahun itu menggantikan Imelda Staunton menjadi Dolores Umbridge dari film Harry Potter.

Dikutip laman CNET, Jumat, 19 Juni 2020, Deepfake Streep menjadi Profesor Pertahanan Terhadap Ilmu Hitam itu ada di kanal YouTube AsArt.

Dalam video berdurasi 3 menit 55 detik menampilkan Professor Umbridge dalam film Harry Potter and the Orde of the Phoenix yang dirilis pada 2007.

Salah satu adegannya termasuk saat Umbridge meminta Harry Potter untuk menulis menggunakan darahnya. "Kamu tahu saya sangat membenci anak-anak," ucapan Umbridge dalam cuplikan itu.

Teknologi deepfake sebelumnya sudah digunakan untuk industri film. Sebut saja Bill Hader sebagai T-1000 pada Terminator 2 dan Robert Downey Jr serta Tom Holland sebagai Doc Drown dan Marty McFly di film Back to the Future.
Sebagai informasi, deepfake sering dikaitkan dengan konten porno.

Tahun lalu teknologi ini biasanya digunakan untuk rekaan video atau foto porno yang sekitar 96 persen videonya merupakan konten dewasa.

Konten porno hasil teknologi deepfake ini telah menghasilkan 134,3 juta views saat itu yang dikumpulkan dari empat situs porno.

Teknologi itu juga semakin mudah dengan adanya aplikasi yang menyediakan layanan mereka konten itu.

Salah satunya aplikasi komputer DeepNude yang memungkinkan pengguna memalsukan foto atau konten telanjang mereka.

Selain itu teknologi yang sama juga masuk ke marketplace.

Bahan jualan periklanan ini menawarkan jasa menukar video, foto hingga audio untuk para konsumen.
Learn more »