Kecerdasan Buatan Bantu Kenali Audio Deepfake di Tengah Ancaman Disinformasi Pemilu

Kemampuan untuk membuat pesan suara sintetis atau suara artifisial, yang dikenal sebagai deepfake
FILE - Suasana di sekitar hotel di Davos Promenade, Swiss, 15/1/2024. Kecerdasan buatan meningkatkan ancaman disinformasi pemilu di seluruh dunia, memudahkan siapa pun untuk membuat konten palsu namun meyakinkan, yang ditujukan untuk membodohi pemilih. (Foto: voaindonesia.com/Markus Schreiber/AP)

TAGAR.id, Berkeley, California, AS - Audio deepfake telah digunakan untuk mencoba mempengaruhi pemilih dalam pemilu tahun ini. Matt Dibble dari VOA melaporkan bagaimana kecerdasan buatan (artificial intelligence/AI) dapat membantu mendeteksi suara sintetis

Kemampuan untuk membuat pesan suara sintetis atau suara artifisial, yang dikenal sebagai deepfake, kini dapat dijangkau oleh siapa saja yang memiliki koneksi internet. Dengan lebih dari 50 negara menyelenggarakan pemilu tahun ini, berbagai upaya untuk mendeteksi disinformasi dengan menggunakan deepfake semakin ditingkatkan sebelum menyebabkan kerugian.

Sarah Barrington meneliti audio deepfake di University of California, Berkeley.

“Kami hanya perlu mengambil beberapa data dari Anda,” sebutnya.

Hanya dalam beberapa menit, dia telah mengkloning (membuat tiruan) suara reporter VOA Matt Dibble dengan menggunakan layanan online dan membuat pernyataan singkat versi palsu.

“Anda yang sebenarnya terdengar seperti ini…,” kata Sarah Barrington.

“Ini adalah kalimat pengujian yang saya gunakan untuk membedakan dengan yang asli…,” komentar Matt Dibble.

“Dan kemudian kami memiliki versi palsu suara Anda di sini…,” imbuh Sarah,

“Ini adalah kalimat pengujian yang saya gunakan untuk membedakan dengan yang asli…,” kata Dibble.

“Sungguh luar biasa. Apa yang mulai kami lakukan adalah memasukkannya ke dalam komputer dan melihat bentuk gelombang serta kebisingan sinyal dan mulai menyimpulkan perbedaannya,” imbuh Sarah Barrington

Beberapa petunjuk terlihat jelas secara visual oleh mata yang terlatih, seperti jeda yang cenderung dilakukan manusia.

Sarah Barrington, peneliti forensik digital menjelaskan, “Secara umum, ada lebih banyak jeda seperti ini dalam keadaan nyata dibandingkan dengan jeda dalam keadaan palsu.”

gambar dengan AIGambar yang dibuat dengan menggunakan AI oleh Eliot Higgins menunjukkan pertempuran fiktif Donald Trump dengan polisi New York, AS, 23/3/2023. (Foto: voaindonesia.com/J. David Ake/AP)

Barrington juga menganalisis suara sintetis menggunakan AI yang dilatih untuk mengenali suara palsu. “Pola AI ini sangat jelas, dan bisa berupa artefak yang sangat kecil dan halus yang tidak dapat kita dengar,” jelasnya.

Tetapi jika yang palsu dibuat menggunakan sistem yang tidak dikenal, maka...

“Kemudian AI akan kesulitan memahami apa yang harus dilakukan dengan hal itu. Ini mungkin tidak menunjukkan pola yang sama persis seperti yang ditunjukkan oleh pemalsuan sebelumnya,” lanjut Sarah.

Barrington mengatakan deteksi, meskipun berhasil, mungkin terlambat untuk menghentikan postingan viral, dan perusahaan media sosial serta penggunanya harus lebih terlibat dalam mengurangi penyebaran konten yang mungkin palsu. “Kami sedang menuju solusi yang sebagian bersifat teknis tetapi juga sebagian berkaitan dengan perubahan dalam masyarakat dan aktivitas para pembuat kebijakan,” imbuhnya.

Memang, kita semua mempunyai peran untuk ikut mendeteksi deepfake dan tidak ikut menyebarkannya. (lt/ka)/voaindonesia.com. []

Berita terkait
Deepfake Kelabui Jutaan Calon Pemilih Jelang Pemilu di Asia Termasuk Indonesia
Pemilu yang akan diadakan di India, Indonesia, Bangladesh dan Pakistan, misinformasi tersebar luas di platform media sosial