Сооснователь и бывший главный научный сотрудник OpenAI Илья Суцкевер привлек к своему стартапу Safe Superintelligence (SSI) 1 млрд долларов. Разработчики собираются создать безопасную систему искусственного интеллекта, которая намного превосходит человеческие возможности, передает Reuters со ссылкой на стартап.
Штат SSI насчитывает около десяти человек, но компания не намерена сильно разрастаться: в ее целях — создание небольшой высоконадежной команды исследователей и инженеров из Калифорнии и Израиля. SSI отказалась раскрывать оценку своей стоимости, но близкие к ней источники упомянули 5 млрд долларов.
Суцкевер занимает должность главного научного сотрудника SSI, ведущим научным сотрудником стал бывший исследователь OpenAI Дэниел Леви, генеральным директором — руководитель отдела ИИ в Apple Дэниел Гросс. Последний заявил, что как такового продукта пока еще нет и, скорее всего, не будет еще несколько лет.
The Verge отметил, что в SSI инвестировала венчурная фирма a16z, которая открыто выступала против законопроекта Калифорнии о правилах безопасности в сфере ИИ. Эта инициатива расколола отрасль: в его поддержку выступил xAI Илона Маска, а против — OpenAI и Google. SSI же подчеркивает, что разрабатывает безопасные системы.
В 2023 году Суцкевер входил в совет директоров OpenAI, который проголосовал за отставку гендиректора компании Сэма Альтмана из‑за «проблем с коммуникациями». Но через несколько дней он присоединился почти ко всем сотрудникам OpenAI, подписавшим письмо с требованием возвращения Альтмана и отставки совета директоров. Его исключили из совета, а в мае 2024-го он покинул бизнес.
После ухода Суцкевера IOpenAI распустила его команду, которая работала над тем, чтобы ИИ соответствовал человеческим ценностям, для подготовки к тому моменту, когда ИИ превзойдет человеческий интеллект.