- Beranda
- Komunitas
- Entertainment
- The Lounge
Video Viral Mirip Gisella Anastasia Dan Nagita Slavina Lagi Heboh


TS
arbib
Video Viral Mirip Gisella Anastasia Dan Nagita Slavina Lagi Heboh
Viral video mirip artis ternama dan populer kini mewabah di Indonesia. Artis cantik Gisella Anastasia dan Nagita Slavina kini nampaknya menjadi korban wabah ini.
Quote:
Video yang mirip dengan Nagita Slavina baru baru ini ramai diberitakan tersebar melalui grup WhatsApp. Diwaktu beberapa hari yang lalu, hal serupa menimpa artis cantik Gisella Anastasia.
Video mirip kedua artis ini bisa saja merupakan ulah kejahilan orang tertentu. Misalnya dengan menggunakan aplikasi edit video ( fakeapp / deepfakes video ) orang bisa memindahkan wajah orang lain kepada video tertentu. Aplikasi ini, sebetulnya dibuat untuk hiburan.
Namun di tahun 2018 lalu, ramai diberitakan penyalahgunaan aplikasi ini, untuk mengedit video porno dengan wajah orang yang dikehendaki ( baca juga thread video porno palsu ). Ini sungguh meresahkan, karena banyak artis artis ternama dunia, sudah pernah menjadi korban kejahilan dengan menggunakan aplikasi tersebut.
Aplikasi editor video deepfake dan sejenisnya kini mulai berkembang semakin canggih. Aplikasi ini menggunakan sistem kecerdasan buatan atau teknologi Artificial Intelligence ( AI ). Aplikasi yang dilengkapi AI tersebut, mampu memadukan potongan gambar dan memindahkan wajah orang ke orang lain.
Kehadiran aplikasi ini mulai banyak disalahgunaka. Kejahatan penipuan, pemerasan dan ancaman kejahatan lainnya mulai bermunculan. Kampuan kecerdasan mesin yang tertanam dalam aplikasi terus mengalami peningkatan. Dalam beberapa berita, konon aplikasi ini sudah mampu memindahkan wajah seseorang, kepada potongan video lain yang bukan dirinya. Hal tersebut, kini bisa terjadi dalam waktu singkat atau beberapa menit saja.
Yang paling dikhawatirkan terjadi, adanya indikasi kemampuan aplikasi ini, untuk mengakses panggilan video pada aplikasi situs perpesanan. Tak hanya wajah, suara dan gerak kebiasaan bagian tubuh kita, dapat disesuaikan dengan aplikasi tersebut. Sehingga secara kasat mata, orang akan menganggap tampilan video yang ada, merupakan video yang nyata. Bukan video palsu atau editan.
Bayangkan saja bila, aplikasi ini ke depan akan membanjiri perangkat komunikasi yang kita gunakan. Bisa saja penipu melakukan panggilan video, dengan mengedit wajah dan suaranya menyerupai orang terdekat kita. Lalu penipu tersebut melakukan atau memerintahkan hal yang merugikan kita. Tentunya ini sangat berbahaya sekali.
Kabar baiknya, aplikasi ini membutuhkan banyak data kita, untuk membuat video yang serupa kita hingga memiliki tingkat kemiripan tinggi. Data data tersebut diperoleh oleh mesin AI, dari foto, rekaman suara dan video kita yang ada di internet. Semakin banyak mesin AI pada aplikasi mendapatkan data, foto dan video, maka semakin mudah pula aplikasi tersebut mampu memindahkan wajah kita dalam beragam adegan.
Duh serem juga ya gan. Mulai sekarang, seiring dengan berkembangnya kecanggihan aplikasi deepfake video yang ada, maka kita harus mencari tahu cara membedakan video yg asli atau yang editan.
Untuk sementara ini, berbagai kasus video porno mirip artis dunia, hanya mampu dilacak keasliannya dengan menemukan sumber video yang diedit. Karena beberapa ciri khas bagian tubuh seseorang, sudah mampu pula dideteksi oleh aplikasi video deepfake tersebut.
Nah, untuk video viral mirip artis Gisella Anastasia dan video viral terbaru mirip Nagita Slavina, menurut pendapat ts, tak jauh dari dampak wabah video palsu yang sedang marak. Namun, untuk kepastiannya kita simak saja nantinya keterangan resmi dari orang terkait dan pihak yang berwenang.

Video mirip kedua artis ini bisa saja merupakan ulah kejahilan orang tertentu. Misalnya dengan menggunakan aplikasi edit video ( fakeapp / deepfakes video ) orang bisa memindahkan wajah orang lain kepada video tertentu. Aplikasi ini, sebetulnya dibuat untuk hiburan.

Namun di tahun 2018 lalu, ramai diberitakan penyalahgunaan aplikasi ini, untuk mengedit video porno dengan wajah orang yang dikehendaki ( baca juga thread video porno palsu ). Ini sungguh meresahkan, karena banyak artis artis ternama dunia, sudah pernah menjadi korban kejahilan dengan menggunakan aplikasi tersebut.
Aplikasi editor video deepfake dan sejenisnya kini mulai berkembang semakin canggih. Aplikasi ini menggunakan sistem kecerdasan buatan atau teknologi Artificial Intelligence ( AI ). Aplikasi yang dilengkapi AI tersebut, mampu memadukan potongan gambar dan memindahkan wajah orang ke orang lain.
Kehadiran aplikasi ini mulai banyak disalahgunaka. Kejahatan penipuan, pemerasan dan ancaman kejahatan lainnya mulai bermunculan. Kampuan kecerdasan mesin yang tertanam dalam aplikasi terus mengalami peningkatan. Dalam beberapa berita, konon aplikasi ini sudah mampu memindahkan wajah seseorang, kepada potongan video lain yang bukan dirinya. Hal tersebut, kini bisa terjadi dalam waktu singkat atau beberapa menit saja.
Yang paling dikhawatirkan terjadi, adanya indikasi kemampuan aplikasi ini, untuk mengakses panggilan video pada aplikasi situs perpesanan. Tak hanya wajah, suara dan gerak kebiasaan bagian tubuh kita, dapat disesuaikan dengan aplikasi tersebut. Sehingga secara kasat mata, orang akan menganggap tampilan video yang ada, merupakan video yang nyata. Bukan video palsu atau editan.
Bayangkan saja bila, aplikasi ini ke depan akan membanjiri perangkat komunikasi yang kita gunakan. Bisa saja penipu melakukan panggilan video, dengan mengedit wajah dan suaranya menyerupai orang terdekat kita. Lalu penipu tersebut melakukan atau memerintahkan hal yang merugikan kita. Tentunya ini sangat berbahaya sekali.
Kabar baiknya, aplikasi ini membutuhkan banyak data kita, untuk membuat video yang serupa kita hingga memiliki tingkat kemiripan tinggi. Data data tersebut diperoleh oleh mesin AI, dari foto, rekaman suara dan video kita yang ada di internet. Semakin banyak mesin AI pada aplikasi mendapatkan data, foto dan video, maka semakin mudah pula aplikasi tersebut mampu memindahkan wajah kita dalam beragam adegan.
Duh serem juga ya gan. Mulai sekarang, seiring dengan berkembangnya kecanggihan aplikasi deepfake video yang ada, maka kita harus mencari tahu cara membedakan video yg asli atau yang editan.

Untuk sementara ini, berbagai kasus video porno mirip artis dunia, hanya mampu dilacak keasliannya dengan menemukan sumber video yang diedit. Karena beberapa ciri khas bagian tubuh seseorang, sudah mampu pula dideteksi oleh aplikasi video deepfake tersebut.
Nah, untuk video viral mirip artis Gisella Anastasia dan video viral terbaru mirip Nagita Slavina, menurut pendapat ts, tak jauh dari dampak wabah video palsu yang sedang marak. Namun, untuk kepastiannya kita simak saja nantinya keterangan resmi dari orang terkait dan pihak yang berwenang.






typhoe dan 11 lainnya memberi reputasi
12
121.4K
Kutip
77
Balasan


Komentar yang asik ya
Urutan
Terbaru
Terlama


Komentar yang asik ya
Komunitas Pilihan