Thu. Sep 19th, 2024

OpenAI Tunjuk Mantan Bos Intelijen NSA jadi Direksi, Apa Tugasnya untuk ChatGPT?

matthewgenovesesongstudies.com, Jakarta – OpenAI telah menunjuk mantan pejuang siber senior dan perwira intelijen AS (Badan Keamanan Nasional) Paul Nakasone menjadi dewan direksi.

Perusahaan tersebut mengatakan akan membantu melindungi pengembang ChatGPT dari serangan dari “aktor jahat yang jumlahnya semakin banyak”. Demikian dilansir AP News, Sabtu (15 Juni 2024).

Pensiunan jenderal Angkatan Darat itu menjabat sebagai kepala Komando Siber AS dan direktur NSA sebelum mengundurkan diri pada awal tahun 2024.

Dia bergabung dengan dewan OpenAI, yang merekrut anggota baru setelah kekacauan di perusahaan AI San Francisco tahun lalu menyebabkan perubahan dalam kepemimpinan dewan.

Anggota dewan sebelumnya memecat CEO Sam Altman dan digantikan beberapa hari kemudian ketika dia kembali ke peran CEO.

OpenAI mengembalikan Altman ke dewan direksi pada bulan Maret dan mengatakan mereka memiliki “kepercayaan penuh” pada kepemimpinannya setelah menyelesaikan penyelidikan eksternal terhadap kekacauan perusahaan.

Dewan Direksi OpenAI juga mengelola bisnis yang berkembang pesat ini, meskipun secara teknis OpenAI merupakan organisasi nirlaba.

Nakasone juga bergabung dengan Komite Keselamatan dan Keamanan OpenAI yang baru, sebuah kelompok yang bertugas memberikan nasihat kepada seluruh dewan mengenai “keputusan keselamatan dan keamanan yang penting” mengenai proyek dan operasi.

Tim keamanan AI yang asli dibubarkan setelah beberapa pemimpin mengundurkan diri.

Beberapa mantan karyawan OpenAI menulis surat terbuka berisi peringatan. Dalam surat tersebut, mantan karyawannya mengatakan OpenAI membungkam kritik yang mengkhawatirkan keamanan AI (alias kecerdasan buatan). 

Surat terbuka tersebut ditandatangani oleh 13 mantan karyawan OpenAI. Surat tersebut menyatakan bahwa tidak ada peraturan pemerintah yang efektif mengenai keamanan AI. Mereka juga mendesak perusahaan AI dalam suratnya untuk lebih berkomitmen pada prinsip kritik terbuka.

Mengutip The Verge, Minggu (6 September 2024), proyek Open Mail Service dinilai kurang aman karena pengaruh perusahaan AI, khususnya OpenAI. 

Selain OpenAI, Google telah banyak dikritik karena tetap menggunakan fitur AI generik di Google Penelusuran meskipun ada yang melaporkan bahwa fitur tersebut memberikan hasil yang tidak biasa.

Selain kedua perusahaan tersebut, Microsoft juga menjadi incaran pengembang Copilot yang menciptakan gambar AI yang membangkitkan hasrat seksual.

Prinsip-prinsip disparagement yang disebutkan dalam surat tersebut antara lain menghindari penetapan dan penerapan kebijakan disparagement untuk mendorong pelaporan oleh pihak-pihak yang “terverifikasi” yang tidak diketahui melaporkan suatu permasalahan.

Selain itu, surat yang ditulis oleh mantan karyawan OpenAI menginginkan karyawan saat ini dan mantan karyawan dapat dengan bebas mengekspresikan pemikiran mereka tentang AI kepada publik tanpa takut perusahaan teknologi akan membalas “serangan” mereka.

Surat tersebut menyatakan bahwa meskipun mereka yakin AI dapat memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. Hal ini dimulai dengan meningkatnya kesenjangan, penipuan, misinformasi, dan peningkatan kemungkinan kepunahan.

Surat tersebut juga menyatakan bahwa investor yang melaporkan masalah AI tidak sepenuhnya terlindungi.

Faktanya, Departemen Tenaga Kerja AS menyatakan bahwa karyawan yang melaporkan pelanggaran upah, diskriminasi, keselamatan, penipuan, dan kerja lembur dilindungi oleh undang-undang perlindungan pelapor. Artinya, pemberi kerja tidak boleh memecat, mengurangi lapangan kerja, mengurangi jam kerja, atau memecat pelapor.

“Beberapa dari kita takut akan adanya pembalasan karena ada kasus serupa di industri ini. “Ini bukan pertama kalinya kami menghadapi atau mendiskusikan masalah ini,” bunyi surat itu.

Beberapa peneliti OpenAI baru-baru ini mengundurkan diri setelah perusahaan tersebut membubarkan tim “Superalignment”. Fokus kelompok ini dalam mengatasi risiko jangka panjang AI muncul setelah pengunduran diri salah satu pendiri OpenAI, Ilya Sutskever, yang membela keselamatan perusahaan.

“Dalam Open AI, budaya dan sistem keamanan tidak lagi menjadi prioritas untuk menciptakan produk yang baik,” kata Jan Leike, mantan peneliti lainnya.

Sementara itu, OpenAI menerbitkan laporan yang menuduh bahwa Israel, Rusia, Tiongkok, Iran, dan negara lain telah menggunakan alat kecerdasan buatan dalam operasi rahasia untuk menyebarkan disinformasi.

Pelaku kejahatan menggunakan model AI yang dikembangkan oleh OpenAI untuk membuat konten palsu dan mengunggahnya ke forum media sosial, menurut The Guardian pada Kamis (6 Juni 2024). AI generatif juga digunakan untuk menerjemahkan konten ke bahasa lain.

Laporan tersebut juga mengatakan bahwa sejauh ini tidak ada kampanye jahat yang sampai ke publik.

Namun seiring dengan berkembangnya kemajuan AI dalam industri, terdapat kekhawatiran luas di kalangan peneliti dan pembuat kebijakan bahwa AI akan digunakan untuk meningkatkan jumlah misinformasi di Internet.

OpenAI, pengembang ChatGPT, telah berupaya untuk memitigasi masalah ini dan menerapkan batasan pada teknologinya.

39 Cara lain adalah dengan menggunakan laporan OpenAI setebal 39 halaman tentang penggunaan perangkat lunak untuk propaganda (oleh kelompok yang tidak dipedulikan).

OpenAI mengatakan para penelitinya menemukan dan memblokir akun yang terkait dengan lima aplikasi dari pengembang pemerintah dan swasta selama tiga bulan terakhir.

Bagi Rusia, misalnya, dua operasi menghasilkan dan mendistribusikan berita penting tentang Amerika Serikat, Ukraina, dan negara-negara Baltik lainnya.

Salah satu prosesnya menggunakan model OpenAI untuk memecahkan kode dan membuat bot yang tertanam di Telegram.

By admin

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *