Mantan ilmuwan OpenAI bertujuan pengembangan AI superintelijen
Sutskever, 37, memainkan peran penting dalam pengembangan model AI generatif seperti ChatGPT melalui advokasinya terhadap hipotesis penskalaan
Sutskever, 37, memainkan peran penting dalam pengembangan model AI generatif seperti ChatGPT melalui advokasinya terhadap hipotesis penskalaan
Ilya Sutskever, mantan kepala ilmuwan OpenAI, telah meluncurkan perusahaan baru bernama Safe Superintelligence (SSI) untuk mengembangkan sistem AI yang aman yang secara signifikan melampaui kecerdasan manusia. Dalam sebuah wawancara, Sutskever menjelaskan bahwa SSI bertujuan untuk mengambil pendekatan yang berbeda terhadap penskalaan AI dibandingkan dengan OpenAI, dengan menekankan perlunya keamanan dalam sistem superintelijen. Ia percaya bahwa setelah superintelijen tercapai, hal itu akan mengubah pemahaman kita tentang AI dan menghadirkan tantangan baru untuk memastikan penggunaannya yang aman.
Sutskever mengakui bahwa mendefinisikan apa yang dimaksud dengan AI yang 'aman' masih dalam tahap pengembangan, yang membutuhkan penelitian signifikan untuk mengatasi kompleksitas yang terlibat. Ia juga menyoroti bahwa seiring AI menjadi lebih canggih, masalah keamanan akan meningkat, sehingga penting untuk menguji dan mengevaluasi sistem AI secara ketat. Meskipun perusahaan tidak berencana untuk membuka sumber semua pekerjaannya, mungkin ada peluang untuk berbagi bagian dari penelitiannya yang terkait dengan keamanan superintelijen.
SSI bertujuan untuk berkontribusi pada upaya keselamatan komunitas AI yang lebih luas, yang dipandang positif oleh Sutskever. Ia percaya bahwa seiring kemajuan perusahaan AI, mereka akan menyadari beratnya tantangan keselamatan yang mereka hadapi dan bahwa SSI dapat memberikan kontribusi yang berharga bagi percakapan yang sedang berlangsung ini.
What's Your Reaction?