Sun. Sep 22nd, 2024

OpenAI Blokir Hacker yang Disponsori Negara untuk Menggunakan ChatGPT

matthewgenovesesongstudies.com, Jakarta OpenAI telah menghapus dan memblokir akun dari kelompok peretas yang disponsori negara dari Iran, Korea Utara, Cina, dan Rusia – dan menggunakan chatbot cerdasnya, ChatGPT secara keliru.

Perusahaan mengambil tindakan terhadap beberapa akun yang terkait dengan kelompok peretasan yang menggunakan layanan pemodelan bahasa besar (LLM) untuk tujuan jahat setelah menerima informasi penting dari Tim Intelijen Ancaman Microsoft.

Dalam pengumuman terpisah, Microsoft memberikan rincian lebih lanjut tentang bagaimana dan mengapa penjahat dunia maya menggunakan ChatGPT.

Mengutip Bleeping Computer, Senin (19/2/2024), berikut daftar grup hacker yang dinonaktifkan di platform ChatGPT: Forest Blizzard alias Strontium (Rusia): Menggunakan ChatGPT untuk mencari satelit dan teknologi radar terkait dengan militer dan untuk meningkatkan operasi sibernya dengan pengembangan naskah. Emerald Sleet alias Thallium (Korea Utara): Menggunakan ChatGPT AI untuk meneliti Korea Utara dan membuat konten spear-phishing, serta memahami kerentanan (seperti CVE-2022-30190 “Follina”) dan menyelesaikan teknologi web. Crimson Sandstorm alias Curium (Iran): Bergabunglah dengan ChatGPT untuk mendukung arsitektur sosial, pemecahan masalah, pengembangan .NET, dan pengembangan penghindaran bisnis. Charcoal Typhoon alias Chromium (Tiongkok): Ngobrol dengan ChatGPT untuk mendapatkan bantuan dalam pengembangan alat, penulisan, pemahaman alat keamanan siber, dan pembuatan konten rekayasa sosial. Salmon Typhoon alias Sodium (Tiongkok): mempekerjakan LLM untuk penelitian tentang berbagai topik, termasuk informasi sensitif, individu terkenal, dan keamanan siber, untuk memperluas alat basis pengetahuan mereka dan mengukur potensi teknologi informasi baru.

Secara umum, organisasi teroris menggunakan LLM untuk meningkatkan keterampilan dan operasi mereka, termasuk investigasi, rekayasa sosial, pemberantasan pemberontakan, dan pengumpulan informasi.

Tak satu pun dari insiden tersebut ditemukan melibatkan penggunaan LLM secara langsung untuk membuat malware atau menjalankan alat khusus.

Sebaliknya, asisten pengkodean sebenarnya sibuk dengan tugas-tugas tingkat rendah seperti menanyakan instruksi perlindungan, skrip, pemecahan masalah bug, dan mengoptimalkan fungsionalitas umum.

Pada bulan Januari, sebuah laporan dari Pusat Keamanan Siber Nasional (NCSC) Inggris memperkirakan bahwa pada tahun 2025, praktik keamanan paling canggih (APT) akan digunakan yang melewati ancaman tersebut

Namun tahun lalu, menurut temuan OpenAI dan Microsoft, terjadi peningkatan serangan APT seperti phishing/rekayasa sosial, namun selebihnya adalah penelitian.

OpenAI mengatakan akan terus memantau dan mengganggu peretas di negara bagian tersebut menggunakan alat pemantauan khusus, data dari mitra industri, dan tim khusus yang berupaya mengidentifikasi pola penggunaan yang buruk.

By admin

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *