
Jakacarta, kamu -n -n indonesia –
Read More : Masalah Tanah, Ayah dan Anak di Samosir Aniaya Warga hingga Tewas
Model kecerdasan buatan yang canggih (AI) mulai menunjukkan perilaku berbahaya, seperti berbohong dan menipu untuk mencapai tujuan mereka.
Salah satu contoh menunjukkan kreasi antropik terbaru, Claude 4, mengancam akan dikecualikan. Model ini kemudian merespons dengan mendorong seorang insinyur dan mengancam akan mengekspresikan bisnisnya.
Pada saat yang sama, model O1 Openai mencoba mengunduh server luar dan menyangkalnya ketika ditangkap merah.
Bagian -bagian ini menekankan fakta bahwa para ilmuwan AI setelah lebih dari dua tahun chatgpt mengguncang dunia, namun mereka tidak sepenuhnya memahami bagaimana kreasi mereka sendiri bekerja.
Namun, perlombaan untuk menggunakan model yang menjadi lebih kuat berlanjut dengan kecepatan tinggi.
Kutipan TechXplore tampaknya menyesatkan “penilaian”, sistem -y -by -step, daripada menghasilkan respons langsung.
Menurut Simon Goldstein, seorang profesor di Universitas Hong Kong, model -model yang lebih baru ini sangat rentan terhadap jawaban yang mengganggu.
“O1 adalah model terbesar pertama yang melihat perilaku seperti itu,” jelas Marius Hobbachn, Kepala Penelitian Apollo, yang berspesialisasi dalam menguji sistem AI utama.
Model -model ini kadang -kadang mensimulasikan “penyesuaian”, dengan instruksi saat mereka secara diam -diam bercita -cita untuk tujuan yang berbeda.
Saat ini, perilaku yang salah ini hanya terjadi ketika para peneliti secara sadar menguji model dengan skenario ekstrem.
Saat Michael Chen memperingatkan organisasi penilaian Matt, jika model AI yang canggih mengarah pada perilaku ini
“Ini adalah masalah terbuka untuk model yang lebih berkualitas di masa depan akan ada kecenderungan untuk kejujuran atau penipuan,” katanya.
Read More : TNI Periksa 25 Anggota Terkait Insiden Ledakan Amunisi di Garut
Perilaku yang mengkhawatirkan ini jauh di atas “halusinasi” atau kesalahan sederhana yang umum di AI.
Hobbachn bersikeras bahwa bahkan jika pengguna terus mencoba, apa itu fenomena nyata dan tidak.
Menurut salah satu pendiri penelitian Apollo, pengguna melaporkan bahwa model tersebut berbohong dan menghasilkan bukti.
“Ini bukan hanya halusinasi. Ada jenis penipuan yang sangat strategis,” katanya.
Tantangan ini telah diperburuk oleh sumber daya penelitian yang terbatas.
Meskipun perusahaan seperti antropik dan solati termasuk perusahaan eksternal untuk mempelajari sistem mereka, para peneliti mengatakan keterbukaan yang lebih besar diperlukan.
Dilaporkan oleh Science Alert, menurut Chen, pendekatan yang lebih besar “untuk penelitian keamanan akan memungkinkan Anda untuk lebih memahami dan mengurangi penipuan”.
Selain itu, hambatan lain adalah dunia penelitian dan organisasi nirlaba memiliki sumber daya komputer yang jauh lebih kecil daripada perusahaan AI. Manta Manta dari Pusat VI (CAIS) percaya ini sangat terbatas.
(LOM/Mik)