jangkauaninfo.com – Meta merilis tool terbaru bernama Video Seal, sebuah teknologi yang memungkinkan penambahan tanda air atau watermark tak terlihat pada video buatan kecerdasan buatan (AI). Teknologi ini melengkapi dua tool watermark sebelumnya dari Meta, yaitu Audio Seal untuk konten suara dan Watermark Anything untuk gambar.
Menurut Meta, Video Seal dirancang sebagai solusi transparansi konten digital agar lebih mudah mengidentifikasi video yang dibuat dengan AI. Tool ini diklaim tidak akan memengaruhi kualitas video, sehingga tanda air yang disematkan tetap tersembunyi namun sulit dihapus menggunakan metode umum.
“Baca Juga : Binguo EV Berubah Menjadi Kanvas Kreatif para Desainer”
Meta juga mengumumkan bahwa Video Seal akan tersedia dalam format sumber terbuka atau open source. Namun, perusahaan hingga saat ini belum merilis kode sumber dari teknologi tersebut. Dengan pendekatan ini, Meta berharap kolaborasi dari komunitas teknologi dapat semakin meningkatkan efektivitas tanda air dalam mendeteksi dan memvalidasi konten berbasis AI.
Salah satu keunggulan dari Video Seal adalah kemampuannya untuk tetap terintegrasi secara mulus dengan konten, sehingga tidak akan mengganggu pengalaman visual pengguna. Namun, tanda air ini tetap dapat diidentifikasi menggunakan teknik atau tool khusus yang dikembangkan Meta. Hal ini bertujuan untuk mencegah penyalahgunaan konten AI, sekaligus membantu membangun transparansi dalam ekosistem digital yang semakin berkembang.
Langkah Meta memperkenalkan Video Seal sejalan dengan upaya industri teknologi dalam menangani deepfake dan konten buatan AI yang sulit dibedakan dengan konten asli. Dengan penanda yang hampir tidak terlihat ini, perusahaan berusaha memastikan keaslian informasi di era digital serta mendukung penggunaan AI yang lebih etis.
“Baca Juga : Panduan Lengkap Aktifkan dan Nonaktifkan Meta AI WhatsApp”
Bagi yang belum tahu, deepfake adalah konten buatan AI yang menunjukkan objek, orang, atau skenario palsu dengan tujuan menipu atau menyesatkan. Konten ini sering digunakan untuk menyebarkan informasi hoaks, membuat konten seksual palsu, hingga melakukan penipuan yang merugikan banyak pihak.
Masalahnya, sistem AI yang semakin canggih membuat konten deepfake menjadi sulit dikenali. Bahkan, dalam banyak kasus, konten sintetis tersebut hampir tidak bisa dibedakan dengan konten asli, sehingga meningkatkan risiko penyalahgunaan di berbagai platform digital.