Safe Superintelligence (SSI), firma, której współzałożycielem jest były główny naukowiec OpenAI, nie musi martwić się o pieniądze na rozwój — przynajmniej przez jakiś czas. Sutskever nie miał problemu z zainteresowaniem inwestorów swoim projektem.
Miliard dolarów to ogromna suma, choć w przypadku rozwoju AI wcale nie tak duża, jak może się wydawać. Środki zostaną przeznaczone przede wszystkim na moc obliczeniową, czyli serwery i chipy do obliczeń i trenowania algorytmów AI. Ponadto start-up uruchamia rekrutacje i szuka badaczy oraz inżynierów.
Table of Contents
TogglePraca nad bezpieczną AI
SSI zajmie się rozwojem „bezpiecznej superinteligencji”. Mają to być systemy AI, które osiągną poziom rozumowania równy człowiekowi lub wyższy, ale będą stale pod kontrolą specjalistów.
W liście otwartym założyciele start-upu napisali: „SSI to nasza misja, nasza nazwa i cały nasz plan produktowy, ponieważ jest to nasz jedyny cel. To oznacza brak rozpraszania przez zarządzanie czy cykle produktowe, a nasz model biznesowy oznacza, że bezpieczeństwo, ochrona i postęp są zabezpieczone przed krótkoterminowymi presjami komercyjnymi”.
Czytaj także w BUSINESS INSIDER
Po rundzie finansowania, w której uczestniczyły takie potęgi jak Andreessen Horowitz i Sequoia Capital, czyli fundusze venture capital znane każdemu fanowi star-tupów, firma jest już wyceniana na 5 miliardów dolarów.
„Dla nas ważne jest, aby otaczać się inwestorami, którzy rozumieją, szanują i wspierają naszą misję, którą jest bezpośrednie dążenie do bezpiecznej superinteligencji, a w szczególności poświęcenie kilku lat na badania i rozwój naszego produktu przed wprowadzeniem go na rynek” — powiedział agencji Reuters Daniel Gross, współzałożyciel SSI i były kierownik ds. AI w Apple.
Czytaj też: Sam Altman wyrzucony z OpenAI. Pracownicy Microsoftu w szoku
Niewielka firma z ogromnym kapitałem
Sutskever założył 10-osobowy start-up w czerwcu br. wraz z Danielem Grossem oraz Danielem Levym, byłym badaczem OpenAI. Gross jest dyrektorem generalnym start-upu, a Levy został głównym naukowcem. Sutskever też pełni funkcję naukowca.
Ilya Sutskever opuścił OpenAI w maju po prawie roku kierowania zespołem „superalignment”, który skupiał się na egzystencjalnych zagrożeniach związanych z AI.