Safe Superintelligence (SSI), sebuah start-up kecerdasan buatan (AI) yang didirikan bersama oleh mantan ilmuwan utama OpenAI, Ilya Sutskever, telah mengumpulkan satu miliar dolar dalam modal untuk mencapai tujuan mereka dalam mengembangkan sistem AI superinteligensia yang aman.
Sutskever mendirikan perusahaan ini bersama Daniel Gross, yang memimpin upaya AI di Apple, dan Daniel Levy, yang sebelumnya bekerja di OpenAI, hanya tiga bulan yang lalu. Sekarang, perusahaan ini bernilai $5 miliar, menurut Reuters.
SSI saat ini memiliki hanya 10 karyawan, termasuk tiga pendiri, dan mendapatkan talenta AI teratas tambahan adalah prioritas utama mereka bersama dengan meningkatkan daya komputasi. Sutskever adalah ilmuwan utama perusahaan, Levy adalah ilmuwan utama, dan Gross mengawasi daya komputasi dan pendanaan.
Baca juga: Flipside tidak Muncul di Instagram. Pakai 7 Solusi Ini!
Hal ini merupakan kali pertama sebuah start-up mengumpulkan satu miliar dolar untuk ronde seed. Namun, dengan Sutskever, Gross, dan Levy memimpin perusahaan, investor memprediksi hasil yang besar. Sutskever sendiri adalah bagian penting dari kesuksesan OpenAI dan ada harapan bahwa SSI dapat meniru kesuksesan mereka.
Investor termasuk firma modal ventura Andreessen Horowitz, Sequoia Capital, DST Global, dan SV Angel. Hal ini terjadi meskipun ada kesadaran tumbuh di perusahaan investasi bah wa boom AI mungkin akan sulit untuk menghasilkan keuntungan yang cukup untuk mengejar biaya yang terus meningkat.
“Penting bagi kami untuk dipenuhi oleh investor yang memahami, menghormati, dan mendukung misi kami, yaitu membuat langkah lurus ke superinteligensia yang aman dan khususnya menghabiskan beberapa tahun melakukan R&D pada produk kami sebelum membawanya ke pasar,” kata Gross dalam wawancara, mengakui bahwa akan ada waktu sebelum investor melihat kembali.
Mengapa Ilya Sutskever Berhenti di OpenAI?
Sutskever meninggalkan OpenAI, perusahaan yang dia bantu mendirikan, pada bulan Mei tahun ini setelah dia menjadi bagian dari kelompok yang memilih untuk menghilangkan CEO Sam Altman dari dewan.
Setelah keputusan itu dibalik, Sutskever dihilangkan dari dewan dan memilih untuk meninggalkan perusahaan. OpenAI kemudian membubarkan tim Superalignment yang berfokus pada keamanan yang dipimpin oleh Sutskever.
Safe Superintelligence mengatakan bahwa mereka memprioritaskan merekrut orang-orang yang sesuai dengan budaya mereka, dan Gross menyatakan bahwa mereka menghabiskan jam-jam untuk memverifikasi kandidat untuk “karakter baik”.
Mereka mencari orang-orang yang tertarik pada pekerjaan itu sendiri daripada pada hype AI, serta orang-orang dengan kemampuan daripada pengalaman AI. “Satu hal yang mengejutkan kami adalah ketika Anda menemukan orang-orang yang tertarik pada pekerjaan, yang tidak tertarik pada scene, pada hype,” kata Gross.
Dengan demikian, Safe Superintelligence berambisi untuk menjadi pemimpin dalam pengembangan AI yang aman, dengan fokus pada budaya dan karakter yang kuat dalam tim mereka.