Penjahat Siber Bisa Curi Data Korban Lewat HDMI

Jakarta – Peneliti keamanan siber di Uruguay menemukan celah baru yang bisa dipakai hacker (penjahat siber) untuk mencuri data korbannya.

Modus ini menggunakan artificial intelligence/AI (kecerdasan buatan) untuk menangkap radiasi elektromagnet yang bocor dari kabel high definition multimedia interface (HDMI).

Perangkatnya dipakai menghubungkan komputer dengan monitor yang dilakukan dari jarak jauh menggunakan antena.

Radiasi elektromagnet ini bisa diolah untuk menampilkan gambar dari monitor korban yang dipakai utnuk berbagai hal, termasuk mencuri password korban.

Peneliti keamanan siber dari Uruguay menyebut serangan siber sudah pernah terjadi pada beberapa lalu, tapi pengguna personal computer (PC) rumahan tak perlu khawatir serangan ini. Serangan siber ini berpotensi terjadi di kalangan pemerintah atau antar perusahaan.

National Security Agency/NSA (Badan Intelijen Amerika Serikat) dan North Atlantic Treaty Organization (NATO) menyebut serangan sejenis ini disebut TEMPEST. Bahkan, NSA juga pernah membuat panduan untuk melindungi penyadapan radiasi elektromagnet seperti ini.

Sebenarnya, praktik menyadap sinyal video ini sudah ada sejak lama, tapi prosesnya lebih mudah pada zaman video analog. Transmisi video digital, seperti yang terjadi lewat kabel HDMI untuk mentransmisikan video high definition, jauh lebih rumit.

Federico Larroca dari Universitas Republik di Uruguay dan timnya berhasil mengembangkan AI yang bisa merekonstruksi sinyal digital yang dibocorkan lewat kabel HDMI dari jarak beberapa meter.

Jika hacker menggunakan metode yang dikembangkan oleh Larroca dan timnya ini, maka mereka akan bisa ikut “menonton” saat korban sedang memasukkan password di layar komputernya.

Selain itu bisa juga sedang mengirim pesan rahasia, login ke internet banking, atau berbagai hal lainnya.

Proses ini bisa dilakukan dari luar gedung dengan menggunakan antena atau menyusupkan sebuah perangkat kecil ke dalam bangunan untuk menangkap sinyal tersebut yang bisa diambil secara fisik oleh pelakunya.

Model AI ini dilatih menggunakan sinyal yang disadap dan dicocokkan dengan versi aslinya. Kemudian, mereka menggunakan software pembaca teks di video tersebut untuk dibandingkan dengan gambar yang ditampilkan di layar aslinya.

Selama pengujian, proses pengintipan ini menghasilkan 30% kesalahan pembacaan teks. Menurut peneliti, tingkat kesalahan itu terbilang rendah, karena teks yang salah itu masih bisa dibaca secara akurat oleh manusia. (adm)

Sumber: detik.com

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top