OpenAI meningkatkan langkah-langkah keamanan untuk pengembang AI dengan memperkenalkan pratinjau penelitian baru yang menampilkan model 'safeguard'. Inisiatif ini mencakup keluarga 'gpt-oss-safeguard', yang fokus pada kustomisasi klasifikasi konten.
Model baru ini terdiri dari dua versi: gpt-oss-safeguard-120b dan yang lebih kecil gpt-oss-safeguard-20b. Keduanya adalah iterasi yang disesuaikan dari keluarga gpt-oss yang ada dan akan dirilis di bawah lisensi Apache 2.0 yang permisif, memungkinkan organisasi untuk menggunakan, memodifikasi, dan menerapkan model ini secara bebas sesuai kebutuhan.
Inovasi kunci dari rilis ini bukan hanya lisensi terbuka tetapi juga metodologi yang mendasarinya. Alih-alih mengikuti seperangkat aturan tetap, model gpt-oss-safeguard memanfaatkan kemampuan penalaran untuk menginterpretasikan kebijakan spesifik pengembang selama inferensi. Ini memberdayakan pengembang AI untuk menetapkan kerangka keamanan mereka sendiri, memungkinkan klasifikasi yang disesuaikan dari apa pun mulai dari permintaan pengguna individu hingga riwayat obrolan yang komprehensif.
Pendekatan baru ini menawarkan keuntungan signifikan. Pengembang sekarang dapat membuat dan menegakkan standar keamanan mereka sendiri daripada bergantung pada lapisan keamanan umum yang disediakan oleh platform. Fleksibilitas ini sangat bermanfaat bagi mereka yang menggunakan model AI sumber terbuka.
Meskipun model-model ini belum aktif, pengembang akan segera dapat mengakses model keamanan AI open-weight OpenAI melalui platform Hugging Face.