Topic followed successfully
Go to BHkuSyarikat S’pura digesa perkukuh keselamatan siber susulan ujian model AI terbaru Anthropic
Syarikat S’pura digesa perkukuh keselamatan siber susulan ujian model AI terbaru Anthropic
Syarikat S’pura digesa perkukuh keselamatan siber susulan ujian model AI terbaru Anthropic
Organisasi di Singapura digesa agar memperkukuh keselamatan siber mereka.
Gesaan ini muncul selepas syarikat kecerdasan buatan (AI), Anthropic, mula menguji sebuah model perintis.
Model perintis itu dilaporkan mampu mengkompromi perisian sedia ada.
Langkah pencegahan segera termasuk melaksanakan tampalan perisian (software patches) untuk semua kerentanan kritikal dan berisiko tinggi.
Langkah lain adalah melaksanakan pengesahan pelbagai faktor (MFA) pada semua antara muka dan titik masuk.
Mereka juga perlu menyemak semula kebenaran pengguna bagi menghapuskan hak akses yang tidak diperlukan.
Panduan ini dikeluarkan Agensi Keselamatan Siber (CSA) Singapura pada 15 April.
Kerentanan kritikal merujuk kepada kelemahan sistem yang boleh dieksploitasi penggodam.
“Model AI perintis dilaporkan mampu mengurangkan masa mengenal pasti kerentanan dan merancang eksploitasi,” kata CSA.
CSA menjelaskan, “Tempoh tersebut boleh dipendekkan daripada beberapa bulan kepada beberapa jam sahaja.”
Agensi itu menambah bahawa model sedemikian mampu menganalisis berbilion baris kod bagi mengenal pasti kelemahan.
Ia juga berupaya menjalankan analisis keselamatan pada kadar kelajuan yang jauh lebih pantas berbanding semakan secara manual.
“Namun, keupayaan yang sama juga boleh disalahgunakan oleh pelaku ancaman siber untuk mempercepatkan eksploitasi kerentanan serta pembangunan keupayaan berniat jahat,” jelas CSA.
Walaupun tiada petunjuk keupayaan tersebut sedang disalahgunakan buat masa ini, agensi itu berkata panduan tersebut bertujuan membantu organisasi merancang lebih awal sebagai perlindungan daripada risiko sedemikian.
Justeru itu, syarikat harus segera melaksanakan tampalan bagi kerentanan kritikal pada sistem yang terdedah kepada Internet.
Kegagalan berbuat demikian boleh menyebabkan kesan meluas kepada sistem syarikat jika dicerobohi.
“Aset ini mempunyai pendedahan terbesar kepada serangan automatik dan mendatangkan risiko kesan meluas tertinggi jika terkompromi,” kata CSA.
Akses kepada semua persekitaran pembangunan dan ujian yang terdedah kepada Internet juga perlu dikawal dengan ketat.
Alternatifnya, ia boleh diputuskan sambungannya daripada rangkaian Internet, tambah CSA.
Kebenaran pengguna juga harus disemak semula untuk hanya memberikan hak akses kepada mereka yang memerlukannya bagi menjalankan tugas sahaja.
Akaun kerja tidak aktif atau tidak digunakan lagi harus dihapuskan.
Panduan CSA ini dikeluarkan beberapa hari selepas tersebarnya berita pada 1 April mengenai Anthropic.
Anthropic telah mula menguji model AI terbarunya dengan sekitar 50 buah syarikat, berbanding melancarkannya untuk kegunaan awam.
Model yang dikenali sebagai Claude Mythos itu dilaporkan mampu mengesan kerentanan dalam sistem perisian secara autonomi.
Ia juga boleh menjana kod untuk mengeksploitasi kelemahan tersebut.
Anthropic berkata model itu telah menemui kerentanan dalam setiap pelayar (browser) utama dan sistem pengendalian.
“Dengan kepantasan kemajuan AI, tidak lama lagi keupayaan sedemikian akan berkembang luas, malah mungkin melangkaui pelaku yang komited untuk menggunakannya secara selamat,” kata Anthropic dalam satu kenyataan di laman webnya.
“Kesan buruknya terhadap ekonomi, keselamatan awam, dan keselamatan negara boleh menjadi sangat teruk.”
Untuk jangka panjang, CSA turut menggesa organisasi agar sentiasa memantau laluan serangan kritikal seperti trafik rangkaian dan tingkah laku pengguna. Tumpuan pengawasan terhadap aktiviti berisiko tinggi pada akaun istimewa dan akses ke sistem sensitif.
Bagi memendekkan masa pelaksanaan kemas kini keselamatan, syarikat dinasihati supaya mempermudah proses kelulusan dan menguji terlebih dahulu tampalan keselamatan dalam persekitaran terasing.

